Результаты поиска
Перейти к навигации
Перейти к поиску
Совпадения в названиях страниц
- ...и|каналами связи]]). Использует, главным образом, математический аппарат [[Теория вероятностей|теории вероятностей]] и [[математическая статистика|математиче ...ое ([[Помехоустойчивое кодирование|помехоустойчивое]]) кодирование. Теория информации тесно связана с [[Информационная энтропия|информационной энтропией]], комму ...21 КБ (687 слов) - 17:29, 7 июля 2024
- [[Файл:Phi-iit-symbol.svg|обрамить| [[Фи|Phi]], символ интегрированной информации]] ...stb.2014.0167|issn=0962-8436|pmid=25823865}}</ref>. В принципе, как только теория созреет и будет всесторонне протестирована в контролируемых условиях, струк ...26 КБ (1514 слов) - 15:01, 1 января 2025
- ...ся в различных областях знания для измерения [[:en:Complexity|сложности]]. Теория была представлена в работе Бейтса и Шепарда в 1993 году<ref name="BatesShep ''Флуктуация информации о состоянии'' <math>\sigma_I</math> равна нулю в максимально неупорядоченно ...39 КБ (2249 слов) - 19:18, 25 марта 2024
Совпадения в текстах страниц
- ...очности в поток, что позволяет производить исправление ошибок при передаче информации по каналам, вносящим искажения (спутниковая трансляция, беспроводная переда ...ельной избыточностью''' и дает математическую оценку максимальной [[Сжатие информации|степени сжатия]], на которую может быть уменьшен размер файла. ...3 КБ (51 слово) - 17:06, 11 июля 2023
- ...ский источник информации''', или '''марковский источник''', — это источник информации, поведение которого определяется [[Стационарность|стационарной]] [[Цепь Мар '''Источник информации''' — это последовательность [[Случайная величина|случайных величин]], пробе ...3 КБ (35 слов) - 22:45, 22 октября 2017
- ...о информации''' в [[Теория информации|теории информации]] – это количество информации в одном случайном объекте относительно другого. ...ветствующих множествах <math>X</math> и <math> Y </math>. Тогда количество информации <math>x</math> относительно <math>y</math> есть разность априорной и апосте ...3 КБ (166 слов) - 12:59, 29 апреля 2024
- ...оростью передачи информации]], определяющей количество [[Теория информации|информации]], передаваемое в единицу времени и измеряемое в ''[[бит]]ах в [[Секунда|се ...2 КБ (26 слов) - 20:35, 6 мая 2024
- ...|информации]], которую можно передать единицей данного [[язык]]а. В теории информации обычно под единицей языка понимают один символ (букву) соответствующего алф [[Категория:Теория информации]] ...2 КБ (10 слов) - 20:07, 22 мая 2017
- {{Теория информации}} ...'' — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. ...5 КБ (284 слова) - 14:27, 1 марта 2021
- ...ит]], если используется натуральный логарифм — то [[нат (единица измерения информации)|нат]], если десятичный — то ''хартли''<!-- там нет статьи и едва ли она тр ! Количество информации <br> о падении монеты «орлом» вверх ...4 КБ (136 слов) - 00:52, 10 марта 2018
- Фишеровским количеством информации, содержащемся в одном наблюдении называют: Из условия регулярности, а также из того, что в случае [[независимость (теория вероятностей)|независимости]] [[случайная величина|случайных величин]] дисп ...7 КБ (290 слов) - 13:51, 16 октября 2022
- ...|вероятностные]] меры. В теории нечёткой меры условия точно определены, но информации об отдельных элементах недостаточно, чтобы определить, какие специальные кл * [[Теория вероятностей]] ...2 КБ (69 слов) - 20:11, 11 октября 2021
- ...зык]]е либо самого языка, определяющая [[Собственная информация|количество информации]] на единицу текста. [[Категория:Теория информации]] ...2 КБ (97 слов) - 19:14, 5 июля 2019
- ...ача данных|передачи]], [[Хранение информации|хранения]] или преобразования информации{{нет АИ|28|09|2016}}. ...ормация|инфо]]-[[последовательность]], [[запись|записанная]] на [[носитель информации]]; [[Передача данных|Передача кода]] - это [[сигнал]] в [[медиа]]-[[Среда п ...6 КБ (64 слова) - 12:06, 11 февраля 2025
- ...Хартли'' — логарифмическая мера информации, которая определяет количество информации, содержащееся в сообщении. ...— длина сообщения (количество символов в сообщении), '''I''' — количество информации в сообщении в [[бит|битах]]. ...8 КБ (119 слов) - 09:35, 13 января 2025
- ...основе логических моделей представления знаний лежит понятие [[формальная теория|формальной теории]], задаваемое кортежем: <math>S = \langle B, F, A, R \ran ...тического доказательства теорем для поиска и логически осмысленного вывода информации ...3 КБ (43 слова) - 07:15, 20 октября 2024
- {{Теория информации}} ...ого процесса]] является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со [[Счётное множес ...6 КБ (183 слова) - 21:21, 6 мая 2024
- ...math>H = K \log_2(M)</math>, которая называется ''хартлиевским количеством информации'' или просто ''мерой Хартли''. ...звуковой). В течение этого периода он сформулировал закон: ''«общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапаз ...9 КБ (215 слов) - 17:50, 22 января 2025
- ...фавит <math>\{0,1\}</math> — общепринятый набор символов для представления информации в компьютерах. [[Нотные знаки]], [[цифры]] — также примеры конечных алфавит ...ематической логике]] (прежде всего — [[Теория моделей|теории моделей]]), [[Теория автоматов|теории автоматов]], [[Искусственный интеллект|искусственном интел ...3 КБ (17 слов) - 16:53, 22 июля 2023
- ...ьку теорема устанавливает [[Ограниченность|верхнюю границу]] на количество информации, которую можно узнать о [[Квантовое состояние|квантовом состоянии]] (доступ ...нной ''X'', является максимальным значением [[Взаимная информация|взаимной информации]] ''I''(''X'':''Y'') между случайными переменными ''X'' и ''Y'' по всем воз ...9 КБ (301 слово) - 00:34, 18 февраля 2025
- ...рации, рецепции и обработки. Изучается специальными теориями информации, [[теория принятия решений|теорией принятия решений]]. ..., и не случайным (подсказанным), когда информация воспринимается (рецепция информации){{sfn|Чернавский|2004|с=13}}.|К}}. ...20 КБ (217 слов) - 01:36, 26 ноября 2023
- ...ена — Спекера|4=Kochen–Specker theorem}}, ограничивающие допустимые типы [[Теория скрытых параметров|теорий скрытых параметров]], которые пытаются объяснить ...= 2</math>) не может быть составной частицей в релятивистской [[Квантовая теория поля|квантовой теории поля]]. ...5 КБ (96 слов) - 20:46, 14 августа 2024
- == Правило локальной информации == ...ционное обучение. Поэтому Розенблаттом было предложено ''правило локальной информации'': ...8 КБ (84 слова) - 07:38, 15 мая 2023