Энтропия Реньи

Материал из testwiki
Перейти к навигации Перейти к поиску

В теории информации энтропия Реньи — обобщение энтропии Шеннона — является семейством функционалов, используемых в качестве меры количественного разнообразия, неопределённости или случайности некоторой системы. Названа в честь Альфреда Реньи.

Если некоторая система имеет дискретное множество доступных состояний X={x1,...,xn}, которому соответствует распределение вероятностей pi для i=1,...,n (то есть pi — вероятности пребывания системы в состояниях xi), тогда энтропия Реньи с параметром α (при α0 и α1) системы определяется как

Hα(X)=11αlogi=1npiα=11αlogpα1,

где угловыми скобками обозначено математическое ожидание по распределению pi (p — вероятность пребывания системы в некотором состоянии как случайная величина), логарифм берётся по основанию 2 (для счёта в битах) либо по другому удобному основанию (оно должно быть больше 1). Основание логарифма определяет единицу измерения энтропии. Так, в математической статистике обычно используется натуральный логарифм.

Если все вероятности pi=1/n, тогда при любом α энтропия Реньи Hα(X)=logn. В остальных случаях энтропия Реньи убывает как функция α. Притом более высокие значения α (уходящие в бесконечность) дают энтропии Реньи значения, которые в большей степени определены лишь самыми высокими вероятностями событий (то есть вклад в энтропию маловероятных состояний уменьшается). Промежуточный случай α=1 в пределе даёт энтропию Шеннона, которая обладает особыми свойствами. Более низкие значения α (стремящиеся к нулю), дают значение энтропии Реньи, которое взвешивает возможные события более равномерно, менее зависимо от их вероятностей. А при α=0 получаем максимально возможную α-энтропию, равную logn независимо от распределения (лишь бы pi0).

Смысл параметра α можно описать, говоря неформальным языком, как восприимчивость функционала к отклонению состояния системы от равновесного: чем больше α, тем быстрее уменьшается энтропия при отклонении системы от равновесного состояния. Смысл ограничения α0 заключается в том, чтобы обеспечивалось увеличение энтропии при приближении системы к равновесному (более вероятному) состоянию. Это требование является естественным для понятия энтропия. Следует заметить, что для энтропии Цаллиса, которая эквивалентна энтропии Реньи с точностью до не зависящего от X монотонного преобразования, соответствующее ограничение часто опускают, при этом для отрицательных значений параметра вместо максимизации энтропии используют её минимизацию. Между тем существует корректное с точки зрения поведения функционала обобщение энтропий Реньи и Цаллиса на случай произвольного действительного значения параметра.

Энтропия Реньи играет важную роль в экологии и статистике, определяя так называемые индексы разнообразия. Энтропия Реньи также важна в квантовой информации, она может быть использована в качестве меры сложности. В цепочке Гейзенберга XY энтропия Реньи была рассчитана в терминах модулярных функций, зависящих от α. Они также приводят к спектру показателей фрактальной размерности.

Hα для некоторых конкретных значений α

Некоторые частные случаи

  • При α=0 энтропия Реньи не зависит от вероятностей состояний (вырожденный случай) и равна логарифму числа состояний (логарифму мощности множества X):
H0(X)=logn=log|X|.

Данную энтропию иногда называют энтропией Хартли. Она используется, например, в формулировке принципа Больцмана.

  • В пределе при α1, можно показать, используя правило Лопиталя, что Hα сходится к энтропии Шеннона. Таким образом, семейство энтропий Реньи может быть доопределено функционалом
H1(X)=dflimα1Hα(X)=H(X)=i=1npilogpi.
  • Квадратичная энтропия, иногда называемая энтропией столкновений, — это энтропия Реньи с параметром α=2:
H2(X)=logi=1npi2=logProb{x=y},

где x и y — независимые случайные величины, одинаково распределённые на множестве X с вероятностями pi (i=1,...,n). Квадратичная энтропия используется в физике, обработке сигналов, экономике.

  • Существует предел
H(X)=dflimαHα(X)=logsupipi,

который называется min-энтропией, потому что это наименьшее значение Hα. Данная энтропия также является вырожденным случаем, поскольку её значение определяется только наиболее вероятным состоянием.

Неравенства для различных значений α

Два последних случая связаны соотношением H<H2<2H. С другой стороны, энтропия Шеннона H1(X) может быть сколь угодно высокой для распределения X с фиксированной min-энтропией.

H2<2H потому что logi=1npi2logsupipi2=2logsupipi.
H<H2, потому что logi=1npi2<logsupipi(i=1npi)=logsupipi.
H1H2 в соответствии с неравенством Йенсена i=1npilogpilogi=1npi2.

Расхождения (дивергенции) Реньи

Кроме семейства энтропий, Реньи также определил спектр мер расхождений (дивергенций), обобщающих расхождение Кульбака—Лейблера. Формулы данного раздела записаны в общем виде — через логарифм по произвольному основанию. Поэтому нужно понимать, что каждая приведённая формула представляет собой семейство эквивалентных функционалов, определённых с точностью до постоянного (положительного) множителя.

Расхождение Реньи с параметром α, где α>0 и α1, распределения Q относительно распределения P (или «расстояние от P до Q») определяется как

Dα(PQ)=1α1logi=1npiαqi1α=1α1log(p/q)α1::P

или (формально, без учёта нормировки вероятностей)

Dα(PQ)=Hα(pq11/α),
Hα(P)=Dα(PQ)|q=1.

Как расхождение Кульбака—Лейблера, расхождение Реньи является неотрицательным для α>0.

Некоторые частные случаи

  • При α=0 дивергенция Реньи не определена, однако семейство дивергенций можно доопределить элементом
D0(PQ)=dflimα0Dα(PQ)=logi=1nqisgnpi : минус логарифм от суммы вероятностей q, таких что соответствующие p>0.

Финансовая (игровая) интерпретация

Рассмотрим игру (лотерею) по угадыванию некой случайной величины. Официальные выигрышные ставки известны и опубликованы в виде распределения вероятностей m. Между тем истинное распределение вероятностей может не совпадать с m. Знание истинного распределения позволяет игроку заработать. Ожидаемый рост капитала экспоненциальный. Считая верным распределение b, игрок может подсчитать (свое) математическое ожидание экспоненциальной скорости роста капитала (за раунд игры) [Soklakov2020]:

ОжидаемыйРост =1RD1(bm)+R1RD1/R(bm),

где R обозначает относительную меру неприятия риска по Эрроу-Пратту.

Обозначив p истинное распределение (не обязательно совпадающее с мнением игрока b) реально полученный рост можно подсчитать в пределе многократной игры [Soklakov2020]:

ФактическийРост =1R(D1(pm)D1(pb))+R1RD1/R(bm).

Почему случай α = 1 особенный

Значение α=1, которое соответствует энтропии Шеннона и расхождению Кульбака—Лейблера, является особенным, потому что только в этом случае можно выделить переменные A и X из совместного распределения вероятностей, такие что справедливо

H(A,X)=H(A)+𝔼p(a){H(X|a)}

для энтропии, и

DKL(p(x|a)p(a)||m(x,a))=𝔼p(a){DKL(p(x|a)||m(x|a))}+DKL(p(a)||m(a))

для дивергенции.

Последнее означает, что если мы будем искать распределение p(x,a), которое сводит к минимуму расхождения некоторых основополагающих мер m(x,a), и получим новую информацию, которая влияет только на распределение a, то распределение p(x|a) не будет зависеть от изменений m(x|a).

В общем случае расхождения Реньи с произвольными значениями α удовлетворяют условиям неотрицательности, непрерывности и инвариантности относительно преобразования координат случайных величин. Важным свойством любых энтропии и дивергенции Реньи является аддитивность: когда A и X независимы, из p(A,X)=p(A)p(X) следует

Hα(A,X)=Hα(A)+Hα(X)

и

Dα(P(A)P(X)Q(A)Q(X))=Dα(P(A)Q(A))+Dα(P(X)Q(X)).

Наиболее сильные свойства случая α=1, которые предполагают определение условной информации и взаимной информации из теории связи, могут быть очень важны в других приложениях или совершенно неважны, в зависимости от требований этих приложений.

Перекрёстная энтропия Реньи

Перекрёстная энтропия Hα(P,Q) от двух распределений с вероятностями pi и qi (i=1,...,n) в общем случае может определяться по-разному (в зависимости от применения), но должна удовлетворять условию Hα(P,P)=Hα(P). Один из вариантов определения (аналогичным свойством обладает перекрёстная энтропия Шеннона):

Hα(P,Q)=Hα(P)+Dα(P,Q).

Другое определение, предложенное А. Реньи, может быть получено из следующих соображений. Определим эффективное количество состояний системы как среднее геометрическое взвешенное от величин 1/qi с весами pi:

n=i=1n(1/qi)pi.

Отсюда следует выражение для перекрёстной энтропии Шеннона

H(P,Q)=logn=i=1npilogqi.

Рассуждая аналогичным образом, определим эффективное количество состояний системы как среднее степенное взвешенное от величин 1/qi с весами pi и параметром 1α:

n=(i=1npi(1/qi)1α)11α=(i=1npiqiα1)11α.

Таким образом, перекрёстная энтропия Реньи имеет вид

Hα(P,Q)=logn=11αlogi=1npiqiα1=11αlogqα1::P.
  • Нетрудно видеть, что в случае, если распределения вероятностей p и q совпадают, перекрёстная энтропия Реньи совпадает с энтропией Реньи.
  • Также при α1 перекрёстная энтропия Реньи сходится к перекрёстной энтропии Шеннона.
  • Свойство H(P,Q)=H(P)+DKL(PQ)H(P), справедливое для перекрёстной энтропии Шеннона, в общем случае не имеет места. Перекрёстная энтропия Реньи может быть как больше, так и меньше энтропии Реньи.

Непрерывный случай

Для формального обобщения энтропии Шеннона на случай непрерывного распределения служит понятие дифференциальная энтропия. Совершенно аналогично определяется дифференциальная энтропия Реньи:

Hα(f)=11αlogXfα(x)dx.

Расхождение (дивергенция) Реньи в непрерывном случае также является обобщением расхождения Кульбака—Лейблера и имеет вид

Dα(g,f)=1α1logXgα(x)f1α(x)dx.

Определение перекрёстной энтропии, предложенное А. Реньи, в непрерывном случае имеет вид

Hα(g,f)=11αlogXg(x)fα1(x)dx.

В приведённых формулах f(x) и g(x) — некоторые функции плотности распределения вероятностей, определённые на интервале XR, и полагается α>0, α1. При α=1 рассмотренные функционалы непрерывно доопределяются соответственно энтропией Шеннона H(f), дивергенцией Кульбака—Лейблера D(g,f) и перекрёстной энтропией Шеннона H(g,f).

Обобщение на случай произвольного параметра

Для произвольного αR, α0, α1, энтропия и дивергенция Реньи определяются следующим образом:

Hα(f)=1α(1α)logXfα(x)dx,
Dα(g,f)=1α(α1)logXgα(x)f1α(x)dx.

При α=1 рассмотренные функционалы непрерывно доопределяются соответственно энтропией Шеннона H(f) и дивергенцией Кульбака—Лейблера D(g,f). При α=0 дивергенция непрерывно доопределяется обратной дивергенцией Кульбака—Лейблера D(f,g), а энтропия с точностью до несущественного слагаемого и несущественного сомножителя эквивалентна энтропии Берга Xlogf(x)dx. Действительно, если функционал Hα(f) уменьшить на постоянную величину 1α(1α)logXdx и раскрыть неопределённость при α0 по правилу Лопиталя, в пределе получим выражение для энтропии Берга, делённое на Xdx. Однако следует заметить, что энтропия Берга, как и вообще энтропия Реньи при α0, не существует для распределений, заданных на неограниченном промежутке X. Для дискретных аналогов приведённых здесь формул подобного ограничения нет.

Литература