Собственная информация

Материал из testwiki
Перейти к навигации Перейти к поиску
Собственная информация дискретных равномерных распределений с двумя, тремя и десятью состояниями. Единица измерения «нат» — горизонтальная зелёная линия, риски слева — логарифмы натуральных чисел.

Собственная информация — статистическая функция дискретной случайной величины.

Собственная информация сама является случайной величиной, которую следует отличать от её среднего значения — информационной энтропии.

Для случайной величины X, имеющей конечное число значений:

PX(xi)=pi,pi0,i=1,2,,n,i=1npi=1

собственная информация определяется как

I(X)=logPX(X).

Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли.

Основание
логарифма
Единица
измерения
Количество информации
о падении монеты «орлом» вверх
2 бит log2(1/2)=log22=1 бит
e нат ln(1/2)=ln20,69 ната
10 хартли log10(1/2)=log1020,30 хартли

Собственную информацию можно понимать как «меру неожиданности» события — чем меньше вероятность события, тем больше информации оно содержит.

Свойства собственной информации

  1. Неотрицательность: I(x)0. I(x)=0 при p(x)=1, т. е. предопределённый факт никакой информации не несёт.
  2. Монотонность: I(x1)>I(x2), если p(x1)<p(x2).
  3. Аддитивность: для независимых x1,,xn справедливо I(x1,,xn)=i=1nI(xi).

См. также

Литература

Шаблон:^ Шаблон:Методы сжатия