Байесовское иерархическое моделирование

Материал из testwiki
Перейти к навигации Перейти к поиску

Байесовское иерархическое моделирование — это статистическая модель, записанная в виде нескольких уровней (в иерархическом виде), которая оценивает Шаблон:Не переведено 5 апостериорного распределения используя байесовский методШаблон:Sfn. Подмодели комбинируются в иерархическую модель и используется теорема Байеса для объединения их с наблюдаемыми данными и учёта всех присутствующих неопределённостей. Результатом этого объединения является апостериорное распределение, известное также как уточнённая оценка вероятности после того, как получены дополнительные сведения об априорной вероятности.

Введение

Шаблон:Не переведено 5, наиболее популярное Шаблон:Не переведено 5, может дать заключение по внешнему виду несовместимое с заключением, которое даёт байесовская статистика, поскольку байесовский подход трактует параметры как случайные величины и использует субъективную информацию для установления допущений на эти параметрыШаблон:Sfn. Так как подходы отвечают на разные вопросы, формальные результаты технически не являются противоречивыми, но два подхода расходятся во мнении, какой ответ относится к конкретным приложениям. Приверженцы байесовского подхода утверждают, что относящаяся к принятию решения информация и обновление уверенностей нельзя игнорировать и что иерархическое моделирование имеет потенциал взять верх над классическими методами в приложениях, где респондент даёт несколько вариантов данных наблюдений. Более того доказано, что модель робастна с меньшей чувствительностью апостериорного распределения к изменчивым иерархическим априорным данным.

Иерархическое моделирование используется, когда информация доступна в нескольких различных уровнях наблюдаемых величин. Иерархический вид анализа и представления помогают в понимании многопараметрических задач и играют важную роль в разработке вычислительных стратегийШаблон:Sfn.

Философия

Многочисленные статистические приложения используют несколько параметров, которые можно считать как зависимые или связанные таким образом, что задача предполагает зависимость модели совместной вероятности этих параметровШаблон:Sfn.

Индивидуальные степени уверенности, выраженные в форме вероятностей, имеют свою неопределённостьШаблон:Sfn. Кроме того, возможны изменения степени уверенности со времени. Как утверждали профессор Жозе М. Бернардо и профессор Адриан Ф. Смит, «Актуальность процесса обучения состоит в эволюции индивидуальной и субъективной уверенности о реальности». Эти субъективные вероятности привлекаются в разум более непосредственно, чем физические вероятностиШаблон:Sfn. Следовательно, это требует обновления уверенности, и сторонники байесовского подхода сформулировали альтернативную статистическую модель, которая принимает во внимание априорные случаи конкретного событияШаблон:Sfn.

Теорема Байеса

Предполагаемое получение реального события обычно изменяет предпочтения между определёнными вариантами. Это делается путём изменения степени доверия к событиям, определяющим вариантыШаблон:Sfn.

Предположим, что при изучении эффективности сердечной терапии пациентов в госпитале j, имеющих вероятность выживания θj, вероятность выживания обновляется при событии y, заключающемся в создании гипотетической сомнительной сыворотки, которая, как думают некоторые, увеличивает выживание больных с сердечными проблемами.

Чтобы сделать обновлённые утверждения о вероятности θj, задающее возникновение события y, мы должны начать с модели, обеспечивающей совместное распределение вероятностей для θj и y. Это может быть записано как произведение двух распределений, которые часто упоминаются как априорная вероятность P(θ) и выборочное распределение P(yθ) соответственно:

P(θ,y)=P(θ)P(yθ)

Если использовать основное свойство условной вероятности, апостериорное распределение даст:

P(θy)=P(θ,y)P(y)=P(yθ)P(θ)P(y)

Равенство, показывающее связь между условной вероятностью и индивидуальными событиями, известно как теорема Байеса. Это простое выражение воплощает техническое ядро байесовского вывода, которое нацелено на включение обновлённого доверия P(θy) в уместном и разрешимом видеШаблон:Sfn.

Перестановочность

Обычной стартовой точкой статистического анализа является предположение, что n значений yn перестановочны. Если никакой информации, отличной от данных y, недоступно для различения любого θj от любого другого и никакого упорядочения или группировки параметров нельзя сделать, следует предполагать симметрию параметров относительно их априорной вероятностиШаблон:Sfn. Эта симметрия представлена вероятностной перестановочностью. Обычно полезно и приемлемо моделировать данные из перестановочного распределения как независимые и одинаково распределённые, если дан некоторый неизвестный вектор параметров θ с распределением P(θ).

Конечная перестановочность

Для фиксированного числа n набор y1,y2,,yn перестановочен, если совместное распределение P(y1,y2,,yn) инвариантно относительно перестановок индексов. То есть, для любой перестановки π or (π1,π2,,πn) индексов (1, 2, …, n), P(y1,y2,,yn)=P(yπ1,yπ2,,yπn).Шаблон:Sfn

Ниже приведён пример перестановочной, но не независимой и одинаково распределённой последовательности: Рассмотрим урну с красными и синими шарами с вероятностями вытаскивания 12 шаров. Шары вытаскиваются без возврата в урну, то есть, после вытаскивания одного из n шаров в урне остаётся n − 1 шаров для следующего вытаскивания.

Пусть Yi={1,0, если i-й шар красный
иначе.

Поскольку вероятность вытаскивания красного шара при первом вытаскивании и синего шара при втором вытаскивании равна вероятности вытаскивания синего шара при первом вытаскивании и красного при втором, которые обе равны 1/2 (то есть [P(y1=1,y2=0)=P(y1=0,y2=1)=12]), то y1 и y2 перестановочны.

Однако вероятность выбора красного шара при втором вытаскивании уже не будет равна 1/2. Таким образом, y1 и y2 не независимы.

Если x1,,xn независимы и одинаково распределены, то они перестановочны, но обратное не обязательно верноШаблон:Sfn.

Бесконечная перестановочность

Бесконечная перестановочность — это такое свойство, что любое конечное подмножество бесконечной последовательности y1, y2, перестановочно. То есть, для любого n последовательность y1,y2,,yn перестановочнаШаблон:Sfn.

Иерархические модели

Составляющие

Байесовское иерархическое моделирование использует две важные концепции для получения апостериорного распределенияШаблон:Sfn, а именно:

  1. Шаблон:Не переведено 5: параметры априорного распределения
  2. Шаблон:Не переведено 5: распределения гиперпараметров

Предположим, что случайная величина Y имеет нормальное распределение с параметром θ как среднее и параметром 1 в качестве дисперсии, то есть YθN(θ,1). Предположим, что параметр θ имеет распределение, задаваемое нормальным распределением со средним μ и дисперсией 1, то есть θμN(μ,1). Кроме того, μ является другим распределением, заданным, например, стандартным нормальным распределением N(0,1). Параметр μ называется гиперпараметром, в то время как его распределение, заданное как N(0,1), является примером гиперприорного распределения. Обозначение для Y изменяется с добавлением другого параметра, то есть Yθ,μN(θ,1). Если имеется другой уровень, скажем, μ является другим нормальным распределением со средним β и дисперсией ϵ, что означает μN(β,ϵ), то  β и ϵ могут также быть названы гиперпараметрами, а их распределения являются гиперприорными распределениямиШаблон:Sfn.

Система

Пусть yj будут наблюдениями и θj будет параметром, который управляет процессом генерации yj. Предположим далее, что параметры θ1,θ2,,θj порождаются перестановочными из основной популяции с распределением, управляемым гиперпараметром ϕ.

Байесовская иерархическая модель содержит следующие уровни:

Уровень I: yjθj,ϕP(yjθj,ϕ)
Уровень II: θjϕP(θjϕ)
Уровень III: ϕP(ϕ)

Правдоподобие, как видно из уровня I, равно P(yjθj,ϕ), c P(θj,ϕ) в качестве его априорного распределения. Заметим, что правдоподобие зависит только от ϕ через θj.

Априорное распределение из уровня I может быть разбито на:

P(θj,ϕ)=P(θjϕ)P(ϕ) [из определения условной вероятности]

где ϕ является гиперпараметром с гиперприорным распределением P(ϕ).

Тогда апостериорное распределение пропорционально этой величине:

P(ϕ,θjy)P(yjθj,ϕ)P(θj,ϕ) [используя теорему Байеса]
P(ϕ,θjy)P(yjθj)P(θjϕ)P(ϕ)Шаблон:Sfn

Пример

Для иллюстрации рассмотрим пример: Учитель хочет оценить, насколько хорошо студент выполнил свой SAT тест (Шаблон:Lang-en[1]). Он использует информацию о студенте в старших классах и его текущем среднем балле оценок (Шаблон:Lang-en, GPA), чтобы получить оценку. Текущая GPA, обозначим её Y, имеет правдоподобие, задаваемое некоторой функцией вероятности с параметром θ, то есть YθP(Yθ). Этот параметр θ является баллом SAT студента. Балл SAT рассматривается как элемент выборки, полученный из общей выборки, полученной из распределения общей популяции, индексированной другим параметром ϕ, которая является баллом студента в старших классах школыШаблон:Sfn. То есть, θϕP(θϕ). Более того, гиперпараметр ϕ имеет своё собственное распределение с функцией P(ϕ), которое называется гиперприорным распределением.

Чтобы получить балл SAT по информации о GPA,

P(θ,ϕY)P(Yθ,ϕ)P(θ,ϕ)
P(θ,ϕY)P(Yθ)P(θϕ)P(ϕ)

Вся информация в задаче будет использована для получения апостериорного распределения. Вместо решения с использованием только априорной вероятности и функции правдоподобия, использование гиперприорных распределений даёт больше информации, что приводит к большей уверенности в поведении параметраШаблон:Sfn.

Двухуровневая иерархическая модель

В общем случае интересующее нас совместное апостериорное распределение 2-уровневых иерархических моделей равно:

P(θ,ϕY)=P(Yθ,ϕ)P(θ,ϕ)P(Y)=P(Yθ)P(θϕ)P(ϕ)P(Y)
P(θ,ϕY)P(Yθ)P(θϕ)P(ϕ)Шаблон:Sfn

Трёхуровневая иерархическая модель

Для 3-уровневых иерархических моделей апостериорное распределение задаётся так:

P(θ,ϕ,XY)=P(Yθ)P(θϕ)P(ϕX)P(X)P(Y)
P(θ,ϕ,XY)P(Yθ)P(θϕ)P(ϕX)P(X)Шаблон:Sfn

Примечания

Шаблон:Примечания

Литература

Шаблон:Rq

  1. «Академический оценочный тест» — стандартизованный тест для приёма в высшие учебные заведения США