Перекрёстная энтропия

Материал из testwiki
Перейти к навигации Перейти к поиску

В теории информации перекрёстная энтропия между двумя распределениями вероятностей измеряет среднее число бит, необходимых для опознания события из набора возможностей, если используемая схема кодирования базируется на заданном распределении вероятностей q, вместо «истинного» распределения p.

Перекрестная энтропия для двух распределений p и q над одним и тем же вероятностным пространством определяется следующим образом:

H(p,q)=dfEp[logq]=H(p)+DKL(pq),

где H(p)энтропия p, и DKL(p||q)расстояние Кульбака—Лейблера от p до q (также известная как относительная энтропия).

Для дискретного p и q это означает

H(p,q)=xp(x)logq(x).

Ситуация для непрерывного распределения аналогична:

H(p,q)=Xp(x)logq(x)dx.

Нужно учесть, что, несмотря на формальную аналогию функционалов для непрерывного и дискретного случаев, они обладают разными свойствами и имеют разный смысл. Непрерывный случай имеет ту же специфику, что и понятие дифференциальной энтропии.

NB: Запись H(p,q) иногда используется как для перекрёстной энтропии, так и для совместной энтропии p и q.

Минимизация перекрёстной энтропии

Минимизация перекрёстной энтропии часто используется в оптимизации и для оценки вероятностей редких событий.


См. также

Шаблон:Нет ссылок