Количество информации

Материал из testwiki
Перейти к навигации Перейти к поиску

Количество информации в теории информации – это количество информации в одном случайном объекте относительно другого.

Пусть x и yслучайные величины, заданные на соответствующих множествах X и Y. Тогда количество информации x относительно y есть разность априорной и апостериорной энтропий:

I(x,y)=H(x)H(x|y),

где

энтропия, а

H(x|y)=yYp(y)xXp(x|y)log2p(x|y)

— условная энтропия, в теории передачи информации она характеризует шум в канале.

Свойства энтропии

Для энтропии справедливы свойства:

0H(x)ln(m),

где m количество элементов множества X.

H(x)=0, если один из элементов множества реализуется с вероятностью 1, а остальные, соответственно, 0, в силу того, что 1ln1=0 и 0ln0=0.

Максимум значения энтропии H(x)=ln(m) достигается, когда все p(x)=1/m, т.е. все исходы равновероятны.

Для условной энтропии справедливы свойства:

0H(x|y)H(x),

При этом, H(x|y)=0, если отображение Y в X однозначное, т.е. yx:p(x|y)=1.

Максимум значения условной энтропии H(x|y)=H(x) достигается, когда x и y - независимые случайные величины.

Свойства количества информации

Для количества информации справедливы свойства:

I(x,y)=I(y,x), как следствие теоремы Байеса.
I(x,y)0,
I(x,y)=0, если x и y – независимые случайные величины.
I(x,x)=H(x).

Последнее свойство показывает, что количество информации совпадает с информационной энтропией, если компонента потери информации (шум) равна нулю.

Литература

Шаблон:Нет источников