Энтропийная скорость

Материал из testwiki
Перейти к навигации Перейти к поиску

Шаблон:Теория информации В математической теории вероятности энтропийная скорость случайного процесса является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со счётным индексом энтропийная скорость H(X) является пределом Шаблон:Не переведено 5 n членов процесса Xk, поделённым на n, при стремлении n к бесконечности:

H(X)=limn1nH(X1,X2,Xn)

если предел существует. Альтернативно, связанной величиной является:

H(X)=limnH(Xn|Xn1,Xn2,X1)

Для сильно стационарных стохастических процессов H(X)=H(X). Энтропийную скорость можно рассматривать как общее свойство стохастических источников, то есть Шаблон:Не переведено 5. Энтропийная скорость можно использовать для оценки сложности стохастических процессов. Он используется в различных приложениях от описания сложности языков, слепого разделения сигналов до оптимизации преобразователей и алгоритмов сжатия данных. Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в машинном обученииШаблон:Sfn.

Энтропийная скорость для марковских цепей

Поскольку стохастический процесс, определяемый цепью Маркова, которая неприводима, непериодична и положительно рекурренктна, имеет стационарное распределение, энтропийная скорость независим от начального распределения.

Например, для такой цепи Маркова Yk, определённом на счётном числе состояний, заданных матрицей переходов Pij, H(Y), задаётся выражением:

H(Y)=ijμiPijlogPij,

где μi является Шаблон:Iw цепи.

Простое следствие этого определение заключается в том, что независимый одинаково распределённый случайный процесс имеет энтропийную скорость, равную энтропии любого индивидуального члена процесса.

См. также

Примечания

Шаблон:Примечания

Литература

Шаблон:Refbegin

Шаблон:Refend

Шаблон:Rq