Результаты поиска

Перейти к навигации Перейти к поиску
Просмотреть (предыдущие 20 | ) (20 | 50 | 100 | 250 | 500)
  • ...о информации''' в [[Теория информации|теории информации]] – это количество информации в одном случайном объекте относительно другого. ...ветствующих множествах <math>X</math> и <math> Y </math>. Тогда количество информации <math>x</math> относительно <math>y</math> есть разность априорной и апосте ...
    3 КБ (166 слов) - 12:59, 29 апреля 2024
  • '''Теоремы Шеннона для источника общего вида''' описывают возможности кодирования исто ...[[Код Шеннона-Фано|кода Шеннона-Фано]]. Данный код удовлетворяет условиям теоремы, и он обладает указанными свойствами. ...
    3 КБ (88 слов) - 04:11, 20 октября 2016
  • ...й функцией [[двойственный код|двойственного]] ему кода. Одним из следствий теоремы является получение верхней границы мощности кода. Названа в честь английско ==Формулировка теоремы== ...
    3 КБ (215 слов) - 17:13, 6 марта 2022
  • В [[Теоретическая физика|теоретической физике]] '''теоремы запрета''' — это группа [[Теорема|теорем]], утверждающих о физической невоз ...быть составной частицей в релятивистской [[Квантовая теория поля|квантовой теории поля]]. ...
    5 КБ (96 слов) - 20:46, 14 августа 2024
  • '''Теоремы Шеннона для источника без памяти''' связывают [[информационная энтропия|энт ...|pages=89-93|ref=Габидулин, Пилипчук|ref-year=2007}} <!-- Лекции по теории информации --> ...
    4 КБ (138 слов) - 04:11, 20 октября 2016
  • ...нформации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока). ...обность канала]], определяемая как максимум [[Взаимная информация|взаимной информации]] на входе и выходе канала (<math>X</math> и <math>Y</math> — представление ...
    6 КБ (215 слов) - 15:00, 20 августа 2021
  • {{Теория информации}} ...ксимального количества безошибочных цифровых данных (то есть, [[Информация|информации]]), которое может быть передано по такой связи коммуникации с указанной пол ...
    12 КБ (150 слов) - 16:56, 20 октября 2024
  • ...ьку теорема устанавливает [[Ограниченность|верхнюю границу]] на количество информации, которую можно узнать о [[Квантовое состояние|квантовом состоянии]] (доступ ...нной ''X'', является максимальным значением [[Взаимная информация|взаимной информации]] ''I''(''X'':''Y'') между случайными переменными ''X'' и ''Y'' по всем воз ...
    9 КБ (301 слово) - 00:34, 18 февраля 2025
  • ...на в честь [[Дуб, Джозеф Лео|Джозефа Дуба]] — американского специалиста по теории вероятностей . Ниже приведена версия теоремы для дискретного времени. ...
    6 КБ (181 слово) - 21:31, 27 ноября 2024
  • ...классического определения вероятности, введённого в оборот ещё создателями теории вероятностей, и не отвечающего требованиям современной науки. Согласно клас ...ейхенбах показали, что на основе их определения могут быть выведены важные теоремы. В настоящее время это определение считается общепризнанным<ref name="list3 ...
    5 КБ (175 слов) - 22:34, 7 января 2025
  • В теории информации '''теорема Шеннона об источнике шифрования''' (или теорема бесшумного шифро ...символ) меньше, чем энтропия Шеннона исходных данных, без потери точности информации. Тем не менее, можно получить код, близкий к энтропии Шеннона без значитель ...
    11 КБ (516 слов) - 07:23, 14 сентября 2024
  • ...тер|квантовых вычислений]], [[Квантовая теория информации|квантовой теории информации]] и смежных областях. ...ства|собственных состояний]] измеряемой наблюдаемой и к (частичной) потере информации об исходном состоянии системы {{math|''A''}}. Очевидно, такой сценарий нам ...
    9 КБ (219 слов) - 13:29, 25 апреля 2023
  • [[Категория:Теория информации]] [[Категория:Теоремы теории информации]] ...
    5 КБ (286 слов) - 18:46, 2 мая 2024
  • '''Примечание:''' подставляя границу теоремы 2 в теорему 1, мы получим верхнюю границу для <math>A_q(n,d)</math>. == Доказательство первой теоремы == ...
    8 КБ (641 слово) - 19:22, 28 января 2021
  • [[Категория:Теоремы теории информации]] ...
    4 КБ (172 слова) - 11:15, 20 марта 2023
  • '''Грани́ца Пло́ткина''' — в [[теория кодирования|теории кодирования]] определяет предел мощности двоичного [[код]]a длины <math>n</ что завершает доказательство всей теоремы. ...
    9 КБ (591 слово) - 14:12, 1 февраля 2015
  • В [[теория кодирования|теории кодирования]] '''грани́ца Хэ́мминга''' определяет пределы возможных значени [[Категория:Теоремы теории информации]] ...
    6 КБ (263 слова) - 01:34, 17 декабря 2024
  • ...льного потока в графе, он же является доказательством необходимости данной теоремы, то есть оно является конструктивным. ..., получим противоречие, описанное в [[Остаточный путь в транспортном графе|информации по дополняющем пути в транспортном графе]]. ...
    8 КБ (204 слова) - 13:59, 27 января 2025
  • ...ь <math>p</math> — простой делитель числа <math>n</math>. Тогда из условия теоремы вытекает, что <math> a^{n-1} = 1\pmod{p}</math> и <math> a^{(n-1)/q} \neq 1 В отличие от теоремы Сэлфриджа, критерий Поклингтона не требует знания полного разложения числа ...
    9 КБ (422 слова) - 14:54, 9 июня 2020
  • ...nfty)</math> может рассматриваться как комплексный аналог [[Теорема Штурма|теоремы Штурма]]. Однако есть отличие: в теореме Штурма левая часть <math>p+q</math Из этой теоремы легко следует критерий устойчивости, так как <math>f(z)</math> — [[устойчив ...
    11 КБ (348 слов) - 22:21, 27 февраля 2025
Просмотреть (предыдущие 20 | ) (20 | 50 | 100 | 250 | 500)