Оценка апостериорного максимума

Материал из testwiki
Перейти к навигации Перейти к поиску

В статистике метод оценки с помощью апостериорного максимума (MAP) тесно связан с методом максимального правдоподобия (ML), но дополнительно при оптимизации использует априорное распределение величины, которую оценивает.

Введение

Предположим, что нам нужно оценить cтатистический параметр θ на основе наблюдений x. Пусть f — выборочное распределение x, так что f(x|θ) — вероятность x при условии, что параметр выборки принимает значение θ. Тогда функция

θf(x|θ)

функция правдоподобия, а оценка

θ^ML(x)=argmaxθf(x|θ)

оценка максимального правдоподобия θ.

Теперь предположим, что существует априорное распределение g величины θ. Это позволяет рассматривать θ как случайную величину в байесовской статистике. Тогда апостериорное распределение θ:

θf(x|θ)g(θ)Θf(x|θ)g(θ)dθ

где g плотность распределения θ, Θ — область определения g. Это прямое приложение Теоремы Байеса.

Метод оценки апостериорного максимального правдоподобия даёт оценку θ как моды апостериорного распределения этой случайной величины:

θ^MAP(x)=argmaxθf(x|θ)g(θ)Θf(x|θ)g(θ)dθ=argmaxθf(x|θ)g(θ)

Знаменатель апостериорного распределения не зависит от θ и поэтому не играет роли в оптимизации. Заметим, что MAP-оценка θ соответствует ML-оценке, когда априорное распределение g постоянно (то есть gконстанта).

Пример

Предположим, что у нас есть последовательность (x1,,xn) i.i.d. N(μ,σv2) случайных величин и априорное распределение μ задано N(0,σm2). Мы хотим найти MAP оценку μ.

Функция, которую нужно максимизировать задана

π(μ)L(μ)=12πσmexp(12(μσm)2)j=1n12πσvexp(12(xjμσv)2),

что эквивалентно минимизации μ в

j=1n(xjμσv)2+(μσm)2.

Таким образом, мы видим, что MAP оценка для μ задана

μ^MAP=σm2nσm2+σv2j=1nxj.

См. также

Литература

  • DeGroot, Morris H. Optimal Statistical Decisions. McGraw-Hill. 1970.
  • Harold W. Sorenson. Parameter Estimation: Principles and Problems. Marcel Dekker. 1980.