Энтропия языка
Перейти к навигации
Перейти к поиску
Шаблон:Значения Энтропия языка — статистическая функция текста на определённом языке либо самого языка, определяющая количество информации на единицу текста.
С математической точки зрения энтропия языка определяется как
где — сообщение, — его энтропия, — длина сообщения.
Согласно Клоду Шеннону и Шаблон:Не переведено 2, для английского языка эта величина составляет от 1,3 до 2,3 бита на букву.