Условная вероятность

Материал из testwiki
Перейти к навигации Перейти к поиску

Усло́вная вероя́тность — вероятность наступления события A при условии, что событие B произошло. Вероятность события A, вычисленную в предположении, что о результате эксперимента уже что-то известно (событие B произошло), мы будем обозначать через P(A|B). Например, вероятность того, что у какого-то человека будет кашель в произвольный день, 5%. Но если мы знаем или предполагаем, что у человека простуда, тогда у него гораздо больше шансов начать кашлять. Таким образом, условная вероятность кашля у любого человека при условии, что он простужен, выше 75%.

Очевидный частный случай: P(A|A)=1=100% неплохо иллюстрируется шуткой «Интернет-опрос показал, что 100 % респондентов пользуются интернетом».

Условная вероятность является одним из наиболее фундаментальных и одним из наиболее важных понятий теории вероятностей.

Если P(A|B)=P(A), то события A и B называются независимыми, то есть знание об одном из них не влияет на вероятность другого. Кроме того, в общем случае P(A|B)P(B|A). Например, если у вас лихорадка денге (событие B), то вероятность получить положительный результат теста на лихорадку (событие A) 90%, то есть P(A|B)=90%. И, наоборот, если вы получили положительный результат теста на лихорадку денге, вероятность того, что она у вас есть всего 15%. В этом случае произошло событие B (наличие лихорадки денге) при условии события A (тест положительный), то есть P(B|A)=15%. При ошибочном приравнивании двух вероятностей возникают различные заблуждения, такие как ошибка базового процента. Для точного подсчета условной вероятности используют теорему Байеса.

Определение

В соответствии с событием

Определение Колмогорова

Пусть два события A и B принадлежат σ- полю вероятностного пространства и P(B)>0. Условная вероятность A при условии B равняется частному от деления вероятности событий A и B на вероятность B:

P(A|B)=P(AB)P(B)

Обратите внимание на то, что это определение, а не теоретический результат. Мы просто обозначаем величину P(AB)P(B) как P(A|B) и называем её условной вероятностью A при условии B.

Условная вероятность как аксиома вероятности

Некоторые авторы, такие как де Финетти, предпочитают вводить условную вероятность как аксиому вероятности:

P(AB)=P(A|B)P(B).

Условная вероятность как вероятность условного события

Условную вероятность можно обозначить как вероятность условного события AB. Предполагается, что испытание, лежащее в основе событий A и B, повторяется. Тогда условная вероятность равна

P(AB)=P(AB)P(B),

что соответствует определению условной вероятности Колмогорова. Заметим, что уравнение P(AB)=P(AB)/P(B)является теоретическим результатом, а не определением. Определение через условные события можно понять в терминах аксиом Колмогорова и, особенно близко к колмогоровской интерпретации вероятности, в терминах экспериментальных данных. Например, условные события могут повторяться, что приводит к обобщенному понятию условного события AB(n). Их можно записать как последовательность независимых и одинаково распределенных случайных величин (AB(n))n1,откуда следует усиленный закон больших чисел для условной вероятности:

P(limnABn=P(A|B))=100%.

Теоретико-множественное определение

Если P(B)=0, то, согласно определению, условная вероятность P(A|B)не задана. Однако её можно определить относительно σ-алгебры таких событий (например, возникающих из непрерывной случайной величины).

Например, если Xи Y- невырожденные и совместно непрерывные случайные величины с плотностью распределения fX,Y(x,y) и B имеет положительную меру, то

P(XAYB)=yBxAfX,Y(x,y)dxdyyBxfX,Y(x,y)dxdy.

Случай, когда мера B равна нулю, проблематичен. Если B={y0}, то условную вероятность можно попытаться записать в виде

P(XAY=y0)=xAfX,Y(x,y0)dxxfX,Y(x,y0)dx,

однако этот подход приводит к парадоксу Бореля — Колмогорова. Общий случай нулевой меры еще более проблематичен, потому что предел, при всех δyiстремящихся к нулю,

P(XAYi[yi,yi+δyi])ixAfX,Y(x,yi)dxδyiixfX,Y(x,yi)dxδyi,

зависит от их отношения, когда они стремятся к нулю.

Корректно условную вероятность в общем виде можно задать как условное математическое ожидание от индикаторной функции. При этом, поскольку условное математическое ожидание задано с точностью до почти всюду, условную вероятность от события, имеющего вероятность ноль, можно доопределить произвольным образом. Ситуация меняется, если событие зависит от некоторого параметра. В этом случае, хотя вероятность каждого значения параметра может оказаться ноль, а значит и условная вероятность при каждом таком параметре формально не задана, можно определить зависящую от параметра условную вероятность так, чтобы она была корректна определена почти всюду.

В соответствии со случайной величиной

Пусть X — случайная величина, а A — событие. Условная вероятность A при условии X обозначается как случайная величина P(A|X), которая принимает значение

P(AX=x)

всякий раз, когда

X=x.

Это можно записать более формально

P(A|X)(ω)=P(AX=X(ω)).

Теперь условная вероятность P(A|X) уже является функцией от X: например, если функция g определяется как

g(x)=P(AX=x),

тогда

P(A|X)=gX.

В частности, P(A|X) задано только почти всюду. В общем случае, P(A|X) корректно ввести через условное математическое ожидание: условное математическое ожидание функции g относительно случайной величины X. В случае дискретной случайной величины X корректно воспользоваться теоретико-множественным определением, поскольку события X=xимеют ненулевую вероятность.

Частичная условная вероятность

Частичная условная вероятность P(A|B1b1Bmbm) события A при условии событий Bi, произошедших с вероятностью biне равна 100%.

Частичная условная вероятность имеет смысл, если условия проверятся в серии из nповторений эксперимента. Такая n — ограниченная частичная условная вероятность может быть определена как условное математическое ожидание появления события A в серии из nпроверок, которые соответствуют всем вероятностным спецификациям Bibi, то есть:

Pn(A|B1b1Bmbm)=E(An|B1n=b1Bmn=bm)

Исходя из этого, частичную условную вероятность можно записать как

P(A|B1b1Bmbm)=limnPn(A|B1b1Bmbm), где bi,n

Примеры

Предположим, что кто-то бросает две честные шестигранные кости, и мы должны предсказать результат.

Пусть D1- значение, выпавшее на первой кости.

Пусть D2 — значение, выпавшее на второй кости.

Какова вероятность того, что D1=2?

В таблице 1 показано вероятностное пространство из 36 случаев.

Также общее количество исходов равно числу размещений c повторениями A62¯=62=36.

Ясно, что

D1=2

ровно в

6

случаях из

36

; таким образом,

P(D1=2)=6/36=1/6.
Таблица 1
+ D2
1 2 3 4 5 6
D1 1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

Какова вероятность того, что D1+D25?

В таблице 2 показано, что

D1+D25

ровно для

10

из тех же

36

результатов, таким образом,

P(D1+D25)=10/36.
Таблица 2
+ D2
1 2 3 4 5 6
D1 1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

Какова вероятность того, что D1=2 при условии, что D1+D25?

В таблице 3 показано, что D1=2 при условии, что D1+D25 ровно для 3 из 10 результатов .

Таким образом, условная вероятность P(D1=2|D1+D25)=3/10=0,3. Это видно из определения, введенного нами ранее:

P(A|B)=P(AB)P(B)=3/3610/36=310

здесь P(AB) — вероятность совместного появления двух зависимых событий, которая вычисляется как

отношение числа благоприятных исходов

1*3

(количество размещений двух костей с

D23

и

D1=2

) к числу всех возможных исходов

36

.

Таблица 3
+ D2
1 2 3 4 5 6
D1 1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

Независимость событий

События A и B называются независимыми, если

P(AB)=P(A)P(B).

Если P(B)0, то

P(A|B)=P(A).

Аналогично, если P(A)0, то

P(B|A)=P(B).

Независимые события против взаимоисключающих событий

Как говорилось ранее, независимость событий означает, что

P(A|B)=P(A)иP(B|A)=P(B)

при условии, что вероятность условия не равна нулю. Однако если события взаимоисключающие, то

P(A|B)=0,P(B|A)=0,иP(AB)=0.

Фактически, взаимоисключающие события не могут быть независимыми, поскольку знание о том, что одно из событий произошло, говорит о том, что другое не произошло.

Заблуждения

Вероятность события А при условии B равна вероятности события B при условии А

В общем случае нельзя считать, что P(A|B)P(B|A). Связь между P(A|B) и P(B|A) задается формулой Байеса:

P(B|A)=P(A|B)P(B)P(A)P(B|A)P(A|B)=P(B)P(A)

То есть P(A|B)P(B|A), только если P(B)P(A)1, что равносильно P(A)P(B).

Предельная вероятность равна условной вероятности

В общем случае нельзя считать, что P(A)P(A|B). Эти вероятности связаны формулой полной вероятности:

P(A)=nP(ABn)=nP(A|Bn)P(Bn),

где события Bnобразуют счетное разбиение Ω.

Это заблуждение может возникнуть в результате смещения выбора. Например, в контексте медицинского утверждения, SCявляется событием, которое происходит вследствие хронической болезни S при обстоятельстве (острое состояние) C. Пусть H- событие, когда человек обращается за медицинской помощью. Предположим, что в большинстве случаев C не вызывает S, поэтому P(SC) является низкой. Предположим также, что медицинское вмешательство требуется только, если S произошло из-за C. Исходя из опыта пациентов, врач может ошибочно заключить, что P(SC) высока. Фактической вероятностью, наблюдаемой врачом, является P(SC|H).

Формальное определение

Формально P(A|B) можно задать как новую вероятность на том же вероятностном пространстве, потребовав, чтобы вероятность событий, содержащихся целиком в B, изменилась в одно и то же число раз, а события, целиком содержащиеся в не B, имеют вероятность 0.

Пусть Ω- пространство элементарных исходов {ω}. Предположим, что произошло событие BΩ. Новое значение вероятности будет присвоено {ω}. Новое распределение для некоторого постоянного коэффициента αравно:

1. ωB:P(ω|B)=αP(ω)2. ωB:P(ω|B)=03. ωΩP(ω|B)=1.

Подставляем 1 и 2 в 3, чтобы выразить α:

1=ωΩP(ω|B)=ωBP(ω|B)+ωBP(ω|B)0=αωBP(ω)=αP(B)α=1P(B)

Таким образом, новое распределение равно

1. ωB:P(ω|B)=P(ω)P(B)2. ωB:P(ω|B)=0

Теперь для события A:

P(A|B)=ωABP(ω|B)+ωABcP(ω|B)0=ωABP(ω)P(B)=P(AB)P(B)

См. также

Шаблон:Вс Шаблон:Нет ссылок