Дельта-метод (статистика)

Материал из testwiki
Перейти к навигации Перейти к поиску

Шаблон:Значения Дельта-методстатистике) — вероятностное распределение функции от асимптотически нормальной статистической оценки при известной асимптотической дисперсии этой оценки.

Одномерный дельта-метод

Хотя дельта-метод легко обобщается до многомерного случая, аккуратное обоснование этой техники проще продемонстрировать в одномерной постановке задачи. Грубо говоря, если существует последовательность случайных величин Шаблон:Mvar , удовлетворяющая:

n[Xnθ]D𝒩(0,σ2)

где θ и σ2 - конечные константы, а D обозначает сходимость по распределению, то верно:

n[g(Xn)g(θ)]D𝒩(0,σ2[g(θ)]2)

для любой функции g, такой, что  Шаблон:Math существует, принимает ненулевые значения, и полиномиально ограничена случайной величиной[1].

Доказательство в одномерном случае

Демонстрация этого результата довольно очевидна в предположении, что Шаблон:Math непрерывна

По формуле Лагранжа: g(Xn)=g(θ)+g(θ~)(Xnθ),

где θ~ лежит между Шаблон:Mvar и θ.

Поскольку  XnPθ иXn<θ~<θ, то θ~Pθ , и поскольку Шаблон:Math непрерывна, применение теоремы о непрерывном отображении даёт:

g(θ~)Pg(θ),

где P обозначает сходимость по вероятности.

Перестановка слагаемых и умножение на  n даёт n[g(Xn)g(θ)]=g(θ~)n[Xnθ].

Так как n[Xnθ]D𝒩(0,σ2) по предположению, то применение теоремы Слуцкого даёт n[g(Xn)g(θ)]D𝒩(0,σ2[g(θ)]2).

Это завершает доказательство.

Доказательство с явным порядком приближения

Как вариант, можно добавить ещё один шаг в конце, чтобы выразить степень приближения.

n[g(Xn)g(θ)]=g(θ~)n[Xnθ]=n[Xnθ][g(θ~)+g(θ)g(θ)]=n[Xnθ][g(θ)]+n[Xnθ][g(θ~)g(θ)]=n[Xnθ][g(θ)]+Op(1)op(1)=n[Xnθ][g(θ)]+op(1)

Это говорит о том, что ошибка аппроксимации сходится к 0 по вероятности.

Многомерный дельта-метод

По определению, состоятельная оценка B сходится по вероятности к своему истинному значению β, и зачастую можно применить центральную предельную теорему, чтобы получить асимптотически нормальную оценку:

n(Bβ)DN(0,Σ),

где n -- число наблюдений и Σ -- (симметричная, положительно определённая) ковариационная матрица. Предположим, мы хотим оценить дисперсию скалярной функции h от оценки B. Возьмём первых два члена ряда Тейлора и используя векторную нотацию градиента, мы можем оценить h(B) как

h(B)h(β)+h(β)T(Bβ)

что означает, что дисперсия h(B) примерно

Var(h(B))Var(h(β)+h(β)T(Bβ))=Var(h(β)+h(β)TBh(β)Tβ)=Var(h(β)TB)=h(β)TCov(B)h(β)=h(β)TΣnh(β)

Можно использовать формулу конечных приращений (для действительнозначных функций нескольких переменных), чтобы увидеть, что это не влияет на приближения в первом порядкеШаблон:?.

Дельта метод утверждает, что

n(h(B)h(β))DN(0,h(β)TΣh(β))

или в одномерном случае:

n(h(B)h(β))DN(0,σ2(h(β))2).

Пример

Шаблон:Пустой раздел

Замечание

Шаблон:Пустой раздел

Примечания

Шаблон:Примечания

  1. Oehlert, G. W. (1992).