Теоремы Шеннона для источника без памяти

Материал из testwiki
Перейти к навигации Перейти к поиску

Шаблон:Не путать

Теоремы Шеннона для источника без памяти связывают энтропию источника и возможность сжатия кодированием с потерями и последующим неоднозначным декодированием.

Прямая теорема показывает, что с помощью кодирования с потерями возможно достичь степени сжатия

NLH(U)(1+ε)log2D,

сколь угодно близкой к энтропии источника, но всё же больше последней. Обратная показывает, что лучший результат не достижим.

Формулировка теорем

Пусть заданы:

  • U — некоторый источник сообщений, а также множество всех его сообщений u1,u2,...,uK
  • Ω — множество всех входных последовательностей длины L, которое разделяется на:
    • ML — множество входных последовательностей однозначного декодирования
    • MLC — множество входных последовательностей неоднозначного декодирования
  • D — количество букв в алфавите кодера (в сообщениях после кодирования)
  • N — длина сообщений после кодирования
Прямая теорема

Для источника без памяти U с энтропией H(U) и любого ε>0 существует последовательность множеств однозначного декодирования ML мощности 2L(1+ε)H(U) такая, что вероятность множества неоднозначного декодирования стремится к нулю P(MLC)0 при увеличении длины блока L. Другими словами, сжатие возможно.

Обратная теорема

Пусть задан источник без памяти U с энтропией H(U) и любой ε1>0. Для любой последовательности множеств однозначного декодирования ML мощности 2L(1ε1)H(U) вероятность множества неоднозначного декодирования стремится к единице: P(MLC)1 при увеличении длины блока L. Другими словами, сжатие невозможно.

Литература