Энтропия языка

Материал из testwiki
Перейти к навигации Перейти к поиску

Шаблон:Значения Энтропия языка — статистическая функция текста на определённом языке либо самого языка, определяющая количество информации на единицу текста.

С математической точки зрения энтропия языка определяется как

r=H(M)/N

где M — сообщение, H(M) — его энтропия, N — длина сообщения.

Согласно Клоду Шеннону и Шаблон:Не переведено 2, для английского языка эта величина составляет от 1,3 до 2,3 бита на букву.

Литература