М-оценки

Материал из testwiki
Версия от 09:36, 17 марта 2020; imported>·1e0nid· (Преамбула: викификация робастности)
(разн.) ← Предыдущая версия | Текущая версия (разн.) | Следующая версия → (разн.)
Перейти к навигации Перейти к поиску

Оценки максимального правдоподобия (ОМП) определяются одним из следующих условий:

ilnPimaxθΘ,ilnPiθ=0,iPiPi=0

где в случае негруппированной выборки Pi=f(xi,θ), а в случае группированной — Pi=(xi1xif(x,θ)dx)ni

М-оценки — есть некое обобщение ОМП. Они определяются аналогично одним из соотношений:

i=1Nρ(xi,θ)maxθΘ,i=1Nϕ(xi,θ)=0

Если наложить условие регулярности в подстановке Ft,x=(1t)F+tΔx и продифференцировать его по t в 0:

0=tϕ(x,T(Ft,x))dFt,x
0=ϕ(x,T(Ft,x))θIFdFt,x+ϕ(x,T(Ft,x))d((1t)F+tΔx)t
0=IFϕ(x,T(Ft,x))θdFt,x+ϕ(x,T(Ft,x))

то не представляет большого труда получить выражение функции влияния для M-оценок: IF=ϕ(x)ϕ'θ(x)dF

Указанное выражение позволяет сделать вывод о том, что M-оценки эквивалентны с точностью до ненулевого множителя-константы.

Файл:Influence function.png
Пример функций влияния для усечённых ОМП параметров сдвига (син.) и параметра масштаба (красн.) стандартного нормального закона распределения.

Несложно проверить, что для ОМП стандартного нормального закона распределения 𝒩(0,1) функции влияния IF параметра сдвига и параметра масштаба выглядят соответственно:

IF=x,IF=12x212

Эти функции неограничены, а это значит, что ОМП не является робастной в терминах B-робастности.

Для того, чтобы это исправить, M-оценки искусственно ограничивают, а значит и ограничивают её IF (см. выражение IF для M-оценок), устанавливая верхний барьер на влияние резко выделяющихся (далеко отстоящих от предполагаемых значений параметров) наблюдений. Делается это введением так называемых усечённых M-оценок, определяемых выражением:

ϕb(z)={ϕ(b),b<zϕ(z),b<zbϕ(b),zb

где z=xθS, θ и S — оценки параметров сдвига и масштаба соответственно.

Среди усечённых M-оценок оптимальными с точки зрения B-робастности являются усечённые ОМП.

См. также

Робастность в статистике

Источники

  • Robert G. Staudte: Robust estimation and testing. Wiley, New York 1990. ISBN 0-471-85547-2
  • Rand R. Wilcox: Introduction to robust estimation and hypothesis testing. Academic Press, San Diego Cal 1997. ISBN 0-12-751545-3