Результаты поиска
Перейти к навигации
Перейти к поиску
Совпадения в названиях страниц
- ...на <math>X \subseteq R^n</math> (<math>n<\infty</math>), дифференциальная энтропия определяется как ...на|безразмерной величиной]] и совпадает с разностью их энтропий. Поскольку энтропия любой непрерывной случайной величины бесконечна, при взятии разности энтроп ...15 КБ (252 слова) - 04:23, 6 октября 2022
- ...пкс|Согласно [[Второе начало термодинамики|второму закону термодинамики]], энтропия изолированной системы возрастает или остается постоянной. Можно сказать, чт ...(физика)|полезную работу]])<ref name="Викитека МСЭ2">«''[[s:МСЭ2/Энтропия|Энтропия]]''» — статья в [[Малая советская энциклопедия|Малой советской энциклопедии ...47 КБ (1211 слов) - 15:55, 14 марта 2025
- {{значения|энтропия}} '''Топологическая энтропия''' — в теории [[динамическая система|динамических систем]] неотрицательное ...3 КБ (184 слова) - 22:40, 17 апреля 2023
- ...ичного алфавита]]. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству [[информация|информации]] на символ передаваемого ...этом случае говорят об энтропии <math>n</math>-го порядка, см. [[#Условная энтропия|ниже]]) встречаются очень редко, то неопределённость уменьшается еще сильне ...35 КБ (1215 слов) - 18:37, 6 января 2025
- {{значения|Энтропия}} '''Энтропия языка''' — статистическая функция [[текст]]а на определённом [[язык]]е либо ...2 КБ (97 слов) - 19:14, 5 июля 2019
- ...ации|теории информации]] '''энтропия Реньи''' — обобщение [[Информационная энтропия|энтропии]] [[Клод Шеннон|Шеннона]] — является семейством функционалов, испо ...th> — вероятности пребывания системы в состояниях <math>x_i</math>), тогда энтропия Реньи с параметром <math>\alpha</math> (при <math>\alpha \geq 0</math> и <m ...28 КБ (1364 слова) - 20:22, 5 октября 2024
- | Полная энтропия [[наблюдаемая Вселенная|видимой части]] <math> S </math> || <math>\frac{4\p |Удельная энтропия [[фотон]]ного газа <math> s_{\gamma}</math> || <math> \frac{8\pi^2}{90}T_0^ ...16 КБ (358 слов) - 22:27, 6 января 2024
- ...тистической термодинамике '''энтропия Цаллиса''' — обобщение стандартной [[Энтропия Гиббса|энтропии Больцмана—Гиббса]], предложенное Константино Цаллисом (Cons ...осительно <math>\mu</math> функция <math>p = \frac{dP}{d\mu}</math>. Тогда энтропия Цаллиса определяется как ...22 КБ (1210 слов) - 06:41, 4 сентября 2024
- В [[теория информации|теории информации]] '''перекрёстная энтропия''' между двумя [[Распределение вероятностей|распределениями вероятностей]] Перекрестная энтропия для двух распределений <math>p</math> и <math>q</math> над одним и тем же [ ...5 КБ (462 слова) - 09:28, 8 июня 2019
- '''[[Эпсилон (буква)|Эпсилон]]-[[энтропия]] или ε-энтропия''' — термин, введённый [[Колмогоров, Андрей Николаевич|А. Н. Колмогоровым]] ...5 КБ (106 слов) - 23:27, 19 июня 2018
- ...о условия по этой мере, и топологическую энтропию{{переход|#Топологическая энтропия}}, описывающую хаотичность динамики без предположения о законе выбора начал ...я непрерывной динамической системы на компактном множестве, топологическая энтропия равна [[точная верхняя грань|точной верхней грани]] метрических, взятой по ...6 КБ (243 слова) - 13:58, 29 октября 2021
- ...языка понимают один символ (букву) соответствующего алфавита, а абсолютная энтропия вычисляется при условии равновероятности всех последовательностей символов. ...в алфавите языка используется <math>L</math> различных букв, то абсолютная энтропия языка ([[бит]] на букву) можно вычислить как: ...2 КБ (10 слов) - 20:07, 22 мая 2017
- Энтропией Гиббса (также известной как энтропия Больцмана—Гиббса) называют стандартную формулу для вычисления статистическо * Формула [[Информационная энтропия|энтропии Шеннона]] математически и концептуально эквивалентна энтропии Гибб ...4 КБ (84 слова) - 19:55, 28 ноября 2024
- | Название = Энтропия {{Wikiquote|Термодинамика#Термодинамическая энтропия|Термодинамическая энтропия}} ...141 КБ (2260 слов) - 18:03, 28 апреля 2024
Совпадения в текстах страниц
- ...языка понимают один символ (букву) соответствующего алфавита, а абсолютная энтропия вычисляется при условии равновероятности всех последовательностей символов. ...в алфавите языка используется <math>L</math> различных букв, то абсолютная энтропия языка ([[бит]] на букву) можно вычислить как: ...2 КБ (10 слов) - 20:07, 22 мая 2017
- {{значения|Энтропия}} '''Энтропия языка''' — статистическая функция [[текст]]а на определённом [[язык]]е либо ...2 КБ (97 слов) - 19:14, 5 июля 2019
- == Энтропия == {{main| Энтропия}} ...2 КБ (53 слова) - 23:54, 2 января 2019
- Энтропией Гиббса (также известной как энтропия Больцмана—Гиббса) называют стандартную формулу для вычисления статистическо * Формула [[Информационная энтропия|энтропии Шеннона]] математически и концептуально эквивалентна энтропии Гибб ...4 КБ (84 слова) - 19:55, 28 ноября 2024
- ...используемой для передачи или хранения сообщения, над его [[информационная энтропия|информационной энтропией]]. Для уменьшения избыточности применяется [[сжати где <math>H</math> — [[Информационная энтропия#Условная энтропия|условная энтропия]], а <math>\mathbb E</math> — [[математическое ожидание]]. ...3 КБ (51 слово) - 17:06, 11 июля 2023
- ...о условия по этой мере, и топологическую энтропию{{переход|#Топологическая энтропия}}, описывающую хаотичность динамики без предположения о законе выбора начал ...я непрерывной динамической системы на компактном множестве, топологическая энтропия равна [[точная верхняя грань|точной верхней грани]] метрических, взятой по ...6 КБ (243 слова) - 13:58, 29 октября 2021
- * <math>S</math> [[термодинамическая энтропия|энтропия]] [Дж/(кг·К)] ...2 КБ (66 слов) - 20:49, 3 марта 2023
- — [[информационная энтропия|энтропия]], а — условная энтропия, в теории передачи информации она характеризует шум в канале. ...3 КБ (166 слов) - 12:59, 29 апреля 2024
- '''Теоремы Шеннона для источника без памяти''' связывают [[информационная энтропия|энтропию]] источника и возможность [[Сжатие без потерь|сжатия]] [[кодирован сколь угодно близкой к [[информационная энтропия|энтропии]] источника, но всё же больше последней. Обратная показывает, что ...4 КБ (138 слов) - 04:11, 20 октября 2016
- Информационную [[Энтропия|энтропию]] некоторой системы можно определить как логарифм числа доступных ...еское взвешенное|среднему геометрическому взвешенному]]). По определению [[Энтропия Реньи|энтропии Реньи]] должно соблюдаться дополнительное ограничение <math> ...5 КБ (211 слов) - 18:26, 6 декабря 2023
- ...орого средняя длина сообщений отличается от нормированной [[Информационная энтропия|энтропии]] не более, чем на [[1|единицу]]: * <math>H\left( U \right)</math> — [[Информационная энтропия|энтропия]] источника ...3 КБ (88 слов) - 04:11, 20 октября 2016
- В [[теория информации|теории информации]] '''перекрёстная энтропия''' между двумя [[Распределение вероятностей|распределениями вероятностей]] Перекрестная энтропия для двух распределений <math>p</math> и <math>q</math> над одним и тем же [ ...5 КБ (462 слова) - 09:28, 8 июня 2019
- ...ь от её [[математическое ожидание|среднего значения]] — ''[[информационная энтропия|информационной энтропии]]''. ...с этропией случайной величины. Логарифму количества состояний равна именно энтропия // vlsergey ...4 КБ (136 слов) - 00:52, 10 марта 2018
- ...модинамический]] [[Изопроцессы|изопроцесс]], происходящий при постоянной [[Энтропия|энтропии]]<ref name="ФизЭнц">Физический энциклопедический словарь. Т.2. Е-Л ...нтропия системы может сохранять постоянное значение, если вся производимая энтропия сразу удаляется с помощью теплообмена. ...5 КБ (57 слов) - 22:34, 15 сентября 2023
- ...мация определяется через [[Информационная энтропия|энтропию]] и [[Условная энтропия|условную энтропию]] двух [[Случайная величина|случайных величин]] как * Взаимная информация неотрицательна и не превосходит [[Информационная энтропия|информационную энтропию]] аргументов: ...5 КБ (284 слова) - 14:27, 1 марта 2021
- {{значения|энтропия}} '''Топологическая энтропия''' — в теории [[динамическая система|динамических систем]] неотрицательное ...3 КБ (184 слова) - 22:40, 17 апреля 2023
- * [[Энтропия (динамические системы)|Энтропия]] отображения удвоения равна логарифму двух. ...3 КБ (33 слова) - 23:48, 19 июня 2018
- ...аза в металлах, должна быть пропорциональна температуре; с другой стороны, энтропия твёрдого <sup><nowiki>3</nowiki></sup>He при температурах выше температуры Результатом является то, что при температурах ниже 0,3 К энтропия жидкого <sup><nowiki>3</nowiki></sup>He меньше, чем твёрдого. Вследствие эт ...5 КБ (72 слова) - 19:26, 25 сентября 2023
- ...скорость <math>H(X)</math> является пределом {{не переведено 5|Совместная энтропия|совместной энтропии||Joint entropy}} <math>n</math> членов процесса <math>X ...[[случайный процесс]] имеет энтропийную скорость, равную [[Информационная энтропия|энтропии]] любого индивидуального члена процесса. ...6 КБ (183 слова) - 21:21, 6 мая 2024
- # Взять все неиспользованные признаки и посчитать их [[Информационная энтропия|энтропию]] относительно тестовых образцов # Выбрать признак, для которого энтропия минимальна (а информационная выгода соответственно максимальна) ...3 КБ (56 слов) - 10:33, 19 октября 2024