Энтропия языка

Материал из testwiki
Версия от 19:14, 5 июля 2019; imported>InternetArchiveBot (Спасено источников — 1, отмечено мёртвыми — 0. Сообщить об ошибке. См. FAQ. #IABot (v2.0beta15))
(разн.) ← Предыдущая версия | Текущая версия (разн.) | Следующая версия → (разн.)
Перейти к навигации Перейти к поиску

Шаблон:Значения Энтропия языка — статистическая функция текста на определённом языке либо самого языка, определяющая количество информации на единицу текста.

С математической точки зрения энтропия языка определяется как

r=H(M)/N

где M — сообщение, H(M) — его энтропия, N — длина сообщения.

Согласно Клоду Шеннону и Шаблон:Не переведено 2, для английского языка эта величина составляет от 1,3 до 2,3 бита на букву.

Литература