Неравенство концентрации меры

Материал из testwiki
Перейти к навигации Перейти к поиску

В теории вероятностей неравенства концентрации меры дают оценки отклонения случайной величины от некоторого значения (обычно от её математического ожидания). Закон больших чисел классической теории вероятностей утверждает, что суммы независимых случайных величин, при соблюдении довольно слабых условий, с большой вероятностью оказываются близкими к их математическим ожиданиям. Такие суммы являются основными примерами случайных величин, которые сконцентрированы около своих средних значений.

Неравенство Маркова

Шаблон:Main Пусть X случайная величина, почти наверное неотрицательная. Тогда, для всякой константы a>0

P(Xa)E(X)a.

Отметим следующее выражение для неравенства Маркова: если Φ — неотрицательная строго возрастающая функция, то

P(Xa)=P(Φ(X)Φ(a))E(Φ(X))Φ(a).

Неравенство Чебышёва

Шаблон:Main Для неравенства Чебышёва требуется, чтобы случайная величина X удовлетворяла следующим условиям:

  • математическое ожидание E[X] конечно;
  • дисперсия D[X]=E[(XE[X])2]=σ2 конечна.

Тогда для всякой константы a>0

P(|XE[X]|a)D[X]a2,

или, равносильно,

P(|XE[X]|aStd[X])1a2,

где Std[X]=σ — стандартное отклонение случайной величины X.

Неравенство Чебышёва может рассматриваться как частный случай обобщённого неравенства Маркова, применённого к случайной величине |XE[X]| с Φ(x)=x2.

Неравенство Высочанского-Петунина

Шаблон:Main

Неравенство Гаусса

Шаблон:Main

Границы Чернова

Шаблон:Main Основной случай границы Чернова[1]Шаблон:Rp требует существования для X производящей функции, определяемой как MX(t):=E[etX]. Основываясь на неравенстве Маркова, для каждого t>0

P(Xa)E[etX]eta,

и для каждого t<0

P(Xa)E[etX]eta.

Границы Чернова различны для различных распределений и различных значений параметра t.

Границы сумм независимых случайных величин

Шаблон:Main Пусть X1,X2,,Xn — независимые случайные величины такие, что для всех i:

aiXibi почти наверное.
ci:=biai
i:ciC

Пусть Sn- их сумма, En- математическое ожидание и Dn — дисперсия

Sn:=i=1nXi,
En:=E[Sn]=i=1nE[Xi],
Dn:=D[Sn]=i=1nD[Xi].

Часто представляет интерес оценка разности между суммой и её математическим ожиданием. Можно использовать несколько неравенств.

1. Неравенство Хёфдинга утверждает, что

P[|SnEn|>t]<2exp(2t2i=1nci2)<2exp(2t2nC2).

2. Случайная величина (SnEn) — это специальный случай мартингала, и S0E0=0. Следовательно, можно использовать неравенство Азумы, что даёт чуть более слабую оценку

P[|SnEn|>t]<2exp(t22i=1nci2)<2exp(t22nC2).

При этом здесь появляется возможность рассматривать любые мартингалы, в том числе супермартингалы и субмартингалы.

3. Функция суммирования Sn=f(X1,,Xn) — частный случай функции n переменных. Эта функция изменяется ограниченным образом: если переменная i изменяется, то значение f также изменяется самое большее на biai<C. Следовательно, можно использовать Шаблон:Не переведено 5, и оно даст аналогичную оценку

P[|SnEn|>t]<2exp(2t2i=1nci2)<2exp(2t2nC2).

Это уже другое обобщение неравенства Хёфдинга, поскольку здесь имеется возможность работать не только с функцией суммирования, но и с другими функциями, если они изменяются ограниченным образом.

4. Шаблон:Не переведено 5 даёт некоторые улучшения по сравнению с неравенством Хёфдинга, когда дисперсии слагаемых малы по сравнению с их «почти наверное-границами» C.

P[|SnEn|>t]2exp[DnC2h(CtDn)], где h(u)=(1+u)log(1+u)u

5. Первое из Шаблон:Не переведено 5 утверждает, что

P[|SnEn|>t]<2exp(t2/2Dn+Ct/3).

Как и неравенство Хёфдинга, для которого данная оценка является обобщением, первое неравенство Бернштейна учитывает почти наверное ограниченные случайные величины. Более того, оно позволяет получить более точную оценку при условии, что случайные величины имеют ограниченные дисперсии.

6. Границы Чернова имеют особенно простую форму для суммы независимых величин, поскольку

E[etSn]=i=1nE[etXi]].

Например,[2] пусть случайные величины Xi удовлетворяют неравенству XiE(Xi)aiM при 1in, тогда для нижнего хвоста мы имеем неравенство

P[SnEn<λ]exp(λ22(Dn+i=1nai2+Mλ/3)).

Если Xi удовлетворяет неравенству XiE(Xi)+ai+M, то для верхнего хвоста мы имеем неравенство

P[SnEn>λ]exp(λ22(Dn+i=1nai2+Mλ/3)).

Если Xi независимы и одинаково распределены, |Xi|1 и σ2 — дисперсия Xi, то типичный вид неравенства Чернова следующий:

P[|Sn|kσ]2ek2/4n,0k2σ.

7. Аналогичные границы можно найти в разделе: Шаблон:Не переведено 5

Неравенство Эфрона-Стейна

Неравенство Эфрона-Стейна (неравенство влияния, или MG-оценка дисперсии) оценивает дисперсию функции общего вида от случайных величин.

Пусть X1Xn, X1Xn независимы, a Xi и Xi имеют одинаковое распределение при всех i.

Положим X=(X1,,Xn),X(i)=(X1,,Xi1,Xi,Xi+1,,Xn). Тогда

D(f(X))12i=1nE[(f(X)f(X(i)))2].

Неравенство Дворецкого-Кифера-Вольфовица

Шаблон:Не переведено 5 оценивает разность между фактической и эмпирической функциями распределения.

Пусть для данного натурального n X1,X2,,Xn — независимые и одинаково распределённые вещественнозначные случайные величины с функцией распределения F. Пусть Fn обозначает соответствующую эмпирическую функцию распределения, определённую формулой

Fn(x)=1ni=1n𝟏{Xix},x.

Таким образом, F(x) — вероятность события, что отдельная случайная величина X меньше, чем x, а Fn(x) — это среднее количество величин из выборки X1,X2,,Xn, реализации которых меньше, чем x.

Тогда верны следующие односторонняя и двусторонняя оценки:

P(supx(Fn(x)F(x))>ε)e2nε2,ε12nln2,
P(supx|Fn(x)F(x)|>ε)2e2nε2,ε>0.

Примечания

Шаблон:Примечания

Ссылки