Теорема Гаусса — Маркова

Материал из testwiki
Перейти к навигации Перейти к поиску

Формулировка теоремы для парной регрессии

Рассматривается модель парной регрессии, в которой наблюдения Y связаны с X следующей зависимостью: Yi=β1+β2Xi+εi. На основе n выборочных наблюдений оценивается уравнение регрессии Y^i=β^1+β^2Xi. Теорема Гаусса—Маркова гласит:

Если данные обладают следующими свойствами:

  1. Модель данных правильно специфицирована; Шаблон:Переход
  2. Все Xi детерминированы и не все равны между собой; Шаблон:Переход
  3. Ошибки не носят систематического характера, то есть 𝔼(εiXi)=0 iШаблон:Переход
  4. Дисперсия ошибок одинакова и равна некоторой σ2Шаблон:Переход
  5. Ошибки некоррелированы, то есть Cov(εi,εj)=0 i,jШаблон:Переход

— то в этих условиях оценки метода наименьших квадратов оптимальны в классе линейных несмещённых оценок.

Пояснение к теореме

Шаблон:ЯкорьПервое условие: модель данных правильно специфицирована. Под этим словосочетанием понимается следующее:

  • Модель состоит из фиксированной части (Y=α+βX) и случайной части (ε);
  • Модель данных линейна по α и β (α и β линейны по Y);
  • Отсутствует недоопределённость (то есть ситуация, когда упущены важные факторы) и переопределённость (то есть когда, наоборот, приняты во внимание ненужные факторы); (отсутствие коллинеарности)
  • Модель данных адекватна устройству данных (модель данных и устройство данных имеют одинаковую функциональную форму).

Устройство данных — это наблюдения случайной величины. Модель данных — это уравнение регрессии. «Иметь одинаковую функциональную форму» означает «иметь одинаковую функциональную зависимость». Например, если точки наблюдений очевидно расположены вдоль невидимой экспоненты, логарифма или любой нелинейной функции, нет смысла строить линейное уравнение регрессии.

Шаблон:ЯкорьВторое условие: все Xi детерминированы и не все равны между собой. Если все Xi равны между собой, то Xi=X¯, и в уравнении оценки коэффициента наклона прямой в линейной модели в знаменателе будет ноль, из-за чего будет невозможно оценить коэффициенты β2 и вытекающий из него β1. При небольшом разбросе переменных X модель сможет объяснить лишь малую часть изменения Y. Иными словами, переменные не должны быть постоянными.

Шаблон:ЯкорьТретье условие: ошибки не носят систематического характера. Случайный член может быть иногда положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в каком из двух возможных направлений для любых значений регрессора. Если уравнение регрессии включает постоянный член (β1), то безусловный аналог этого условия, 𝔼(εi)=0, выполняется автоматически, так как постоянный член отражает любую систематическую, но постоянную составляющую в Y, которой не учитывают объясняющие переменные, включённые в уравнение регрессии.

Иногда это условие комбинируют вместе с первым условием в единую запись, задающую условное моментное ограничение: εi=Yiβ0β1Xi𝔼(Yiβ0β1XiXi)=0. Это условие называется экзогенностью X в рамках данной модели или (в GMM-литературе) спецификацией модели через моментную функцию, линейную по параметрам (это предположение верности линейной спецификации, то есть экзогенности X, может быть протестировано только непараметрическими методами). В частности, из экзогенности X следует ортогональность ошибки модели любой функции от X из пространства всех функций: 𝔼[f(Xi)εi]=0f. Из этого следует ортогональность ошибки линейным функциям X и константе, то есть 𝔼[εi]=0, 𝔼[Xiεi]=0. Выборочные аналоги этих равенств, 1ni=1nεi=0, 1ni=1nXiεi=0, являются условиями первого порядка для МНК-оценок, поэтому простая ортогональность регрессоров ошибке (более слабое условие, чем экзогенность) гарантирует состоятельность МНК-оценок.

Шаблон:ЯкорьЧетвёртое условие: дисперсия ошибок одинакова. Одинаковость дисперсии ошибок также принято называть гомоскедастичностью. Не должно быть априорной причины для того, чтобы случайный член порождал бо́льшую ошибку в одних наблюдениях, чем в других. Так как 𝔼(εi)=0 i и теоретическая дисперсия отклонений εi равна 𝔼(εi2), то это условие можно записать так: 𝔼(εi2)=σε2 i. Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициенты регрессии, найденные по методу наименьших квадратов, будут неэффективны, а более эффективные результаты будут получаться путём применения модифицированного метода оценивания (взвешенный МНК или оценка ковариационной матрицы по формуле Уайта или Дэвидсона—Маккинона).

Шаблон:ЯкорьПятое условие: εi распределены независимо от εj при ij. Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Если один случайный член велик и положителен в одном направлении, не должно быть систематической тенденции к тому, что он будет таким же великим и положительным (то же можно сказать и о малых, и об отрицательных остатках). Теоретическая ковариация σεi,εj должна равняться нулю, поскольку σεi,εj=𝔼((εi𝔼(εi))(εj𝔼(εj)))=𝔼(εiεj)𝔼(εi)𝔼(εj)=0. Теоретические средние для εi и εj равны нулю в силу третьего условия теоремы. При невыполнении этого условия оценки, полученные по методу наименьших квадратов, будут также неэффективны.

Выводы из теоремы:

  • Эффективность оценки означает, что она обладает наименьшей дисперсией.
  • Оценка линейна по наблюдениям Y.
  • Несмещённость оценки означает, что её математическое ожидание равно истинному значению.

Формулировка теоремы для множественной регрессии

Если данные обладают следующими свойствами:

  1. Модель правильно специфицирована (постоянная эластичность рассматривается как постоянная, или нет лишних переменных, или есть все важные переменные),
  2. rang(𝑿)=k,
  3. 𝔼(εi)=0,
  4. Cov(ε)=σ2𝑰 (что влечёт гомоскедастичность),

— то в этих условиях оценки метода наименьших квадратов β^ являются лучшими в классе линейных несмещённых оценок (Best Linear Unbiased Estimators, BLUE).

В случае гетероскедастичности, если дисперсия ошибок явным образом зависит от независимой переменной, под критерий BLUE подпадает взвешенный МНК. При наличии же значительного количества выбросов наиболее эффективным может быть метод наименьших модулей[1].

Примечания

Шаблон:Примечания

Литература

Шаблон:Rq