Семантическая информация

Материал из testwiki
Перейти к навигации Перейти к поиску

Семантическая информация — смысловой аспект информации, отражающий отношение между формой сообщения и его смысловым содержанием.

Начиная с работ Клода Шеннона, принято считать[1], что понятие информации складывается из трёх аспектов: синтаксического, семантического и прагматического. Синтаксический связан с техническими проблемами хранения и передачи информации, семантический имеет отношение к смыслу и значению истинности сообщений, прагматический затрагивает вопросы влияния информации на поведение людей. Теория семантической информации исследует область человеческих знаний и является составной частью разработки искусственного интеллекта[2].

История

Формирование понятия семантической информации

Возникновение семиотики в 19 веке создало предпосылки для появления понятия семантической информации[3]. Окончательно оно сложилось после появления Математической теории связи, созданной Клодом Шенноном в 1948 году[4]. Теория Шеннона, рассматриваемая сейчас как теория синтаксической информации, полностью игнорирует смысл сообщения. Именно тогда была осознана необходимость создания теории семантической информации.

Теория Бар-Хиллела и Карнапа

В 1952 году Йегошуа Бар-Хиллелом и Рудольфом Карнапом была предложена теория семантической информации, основанная на понятии логических вероятностей[5]. Семантическая информация трактуется авторами как синоним смыслового содержания, которым обладают как истинные, так и ложные выражения. Рассматриваются две основные меры количества семантической информации в предложении s. Первая cont(s) определяется так:

cont(s)=1q(s),

где q(s) — абсолютная логическая вероятность предложения s. Вторая мера inf(s) является нелинейной функцией первой:

inf(s)=log211cont(s)=log21q(s).

Она интересна тем, что для двух логически независимых предложений s1 и s2 имеем неравенство: cont(s1)+cont(s2)>cont(s1s2), где «» — знак логической связки «И», тогда как:

inf(s1)+inf(s2)=inf(s1s2), (*)

что больше подходит для меры количества информации.

Для определения величин логических вероятностей предложений Бар-Хиллел и Карнап конструируют формальный язык и составляют с его помощью описания всевозможных состояний универсума (так называемое «множество возможных миров»). Приведём пример простого языка, в котором имеется одна константа a (под ней мы будем подразумевать девушку Алису) и два предиката: B и W, обозначающие свойства «красива» и «умна». Тогда выражение B(a) означает предложение «Алиса красива», а выражение W(a) — «Алиса умна». Теперь используем логическую связку «НЕ», которую обозначим символом: «¬». Тогда выражение ¬B(a) будет означать предложение «Алиса не красива», а выражение ¬W(a) — «Алиса не умна». Теперь мы можем составить все возможные описания состояний универсума для нашего скромного языка. Всего их будет четыре.

B(a)W(a)
B(a)¬W(a)
¬B(a)W(a)
¬B(a)¬W(a)

Как можно видеть, каждый мир универсума состоит из логически независимых атомарных предложений (и их отрицаний), называемых базисными. Обычно в формальных языках используется множество констант и множество предикатов, причём, не обязательно одноместных. Так что количество миров может быть очень большим.

Если не заданы предварительные условия, то логические вероятности всех миров одинаковы. В этом случае величина абсолютной логической вероятности предложения s равна отношению числа миров, в которых s истинно, к общему числу миров в универсуме. В теории Бар-Хиллела и Карнапа величины логических вероятностей аналитических выражений одинаковы и равны единице (поскольку они истинны во всех мирах), а логическая вероятность противоречия равна нулю. Величины логических вероятностей синтетических выражений заключены в интервале от нуля до единицы.

Чем больше миров в универсуме, тем выше неопределённость (относительно того, какой мир является истинным). После получения сообщения s неопределённость уменьшается, поскольку те миры, в которых s ложно, можно исключить из рассмотрения. Семантическая информация в предложении s понимается как множество исключённых миров (оно обозначается символом Cont(s)). По поводу этого определения авторы пишут, что оно согласуется с древним философским принципом «omnis determinatio est negatio» («всякое определение является исключением»). Теперь для меры cont(s) можем записать:

cont(s)=|Cont(s)||U|,

где |Cont(s)| — мощность множества Cont(s), |U| — мощность множества всех миров универсума U.

Количество семантической информации в сообщении s относительно знаний получателя e определяется следующим образом:

inf(s/e)=inf(se)inf(e)=log2q(e)q(se)=log21q(s/e),

где q(s/e) — относительная (условная) логическая вероятность истинности высказывания s при условии истинности выражения e.

Замечательно, что чисто внешне формулы теории Бар-Хиллела и Карнапа похожи на формулы теории Шеннона. И там, и здесь мы имеем логарифмы и вероятности. Только у Шеннона все вероятности — статистические (то есть эмпирические), а не логические.

Если логическая вероятность выражения se меньше логической вероятности выражения e, то сообщение s несёт новую информацию получателю, обогащая, таким образом, его знания. Если e имплицирует s, то se эквивалентно e и сообщение s не несёт информации адресату (поскольку в нём для него нет ничего нового). Если выражение se является противоречием, то q(se)=0. Количество семантической информации в противоречии по Бар-Хиллелу и Карнапу равно бесконечности. Этот парадоксальный результат впоследствии послужил поводом для критики со стороны Лучано Флориди.

Альтернативные идеи

Хотя теория Бар-Хиллела и Карнапа до сих пор пользуется вниманием исследователей, она вызвала поток новых идей. Александр Харкевич предложил измерять ценность информации по изменению вероятности достижения определённой цели, возникающему под воздействием данного сообщения[6]. Юлий Шрейдер полагал, что количество семантической информации в послании любой природы можно оценивать как степень изменения системы знаний адресата в результате восприятия сообщения[7]. Идея о семантическом аспекте связи информации и энтропии была впервые предложена в 1966 советским философом и логиком Евгением Казимировичем Войшвилло в работе «Попытка семантической интерпретации статистических понятий информации и энтропии».

Современные теории семантической информации

Теория Флориди

В своей работе 2004 года Лучано Флориди с первой строки обрушивается на теорию Бар Хиллела и Карнапа: «„Треугольник имеет четыре стороны“: согласно классической теории семантической информации в этом противоречии заключено больше смыслового содержания, чем в условно истинном утверждении „Земля имеет только одну Луну“»[8]. Флориди назвал это «парадоксом Бар-Хиллела-Карнапа». Решение этого парадокса он видит в том, что количество семантической информации в сообщениях должно зависеть не только от заключённого в них смыслового содержания, но и от значения истинности этих сообщений. Флориди ввёл понятие условно ложного предложения (contingently false sentence), представляющего собой конъюнкцию двух его составных частей, одна из которых истинная, а вторая — ложная. Примером такого предложения может служить высказывание: «Луна вращается вокруг Земли и внутри она полая». Такое предложение одновременно несёт информацию (тем, кто не знает, что Луна вращается вокруг Земли) и дезинформацию (в обычной жизни часто приходится встречаться с подобным — дезинформацию легче продвигать, если она дополняется некоторой долей информации).

С точки зрения классической логики условно ложное предложение является просто ложным и несёт только дезинформацию. Однако приведённый пример показывает, что на самом деле это не так. Первоначальная теория Бар-Хиллела и Карнапа не в состоянии решить эту антиномию. Поэтому Флориди отверг её (как «слабую» теорию) и создал свою собственную — «сильную». Он отказался от использования логических вероятностей и заявил, что теория семантической информации не должна быть похожей на теорию Шеннона[9]. В его собственной интерпретации количество семантической информации в сообщении определяется степенью соответствия этого сообщения ситуации (то есть тому, что происходит в данном месте и в данное время). Несоответствие возникает либо в результате бессодержательности сообщения, либо в результате его неточности. В своей теории Флориди непосредственно не использует понятие дезинформации, вместо этого он вводит понятие степени неточности условно ложных предложений. Степень неточности в условно ложном предложении s равна:

v(s)=f(s)l(s),

где f(s) — число ложных атомарных выражений в s; l(s) — общее число атомарных предложений в s. Для определения истинности атомарных предложений требуется принять принцип априорного всезнания. Степень бессодержательности истинного предложения s рассчитывается по формуле:

+v(s)=m(s)n,

где m(s) — число миров универсума, в которых s истинно; n — общее число миров универсума (заметим, что, согласно этому определению, величина +v(s) в точности равна величине логической вероятности q(s)). Далее Флориди вводит понятие функции степени информативности:

i(s)=1v2(s).

Количество семантической информации i*(s) в сообщении s равно определённому интегралу от функции степени информативности i(s):

i*(s)=32v(s)1(1x2)dx=13v(s)2+v3(s)2.

Несмотря на все отличия между классической теорией и теорией Флориди, в них есть нечто общее. Если s является истинным предложением, то величина +v(s) равна величине логической вероятности q(s). Мера i*(s) подобна мере cont(s), но в отличие от последней, является нелинейной функцией v(s). К сожалению, в теории Флориди нет ничего похожего на меру inf(s), обладающую замечательным свойством (*) для логически независимых предложений.

Теория семантической информации и дезинформации

Поднятая Флориди проблема может быть решена в рамках теории, основанной на логических вероятностях. Необходимо отметить, что к началу текущего века у некоторых учёных сформировалось скептическое отношение к индуктивной логике Карнапа[10]. Однако современные математики смогли изменить ситуацию, модифицировав эту теорию[11][12][13]. Благодаря этому интерес к логическим вероятностям вновь возродился.

В работе[14] предлагается модифицировать классическую теорию семантической информации, включив в неё понятие дезинформации, которую несёт ложное сообщение. В новой теории, как и в теории Флориди, рассматривается множество различных ситуаций (точек пространства-времени). Одно и то же предложение языка может быть истинным в одной ситуации и ложным в другой. Поскольку получатель сообщений не может быть застрахован от ошибок при оценке их истинности, количество семантической информации оценивается отдельно с точки зрения получателя и с точки зрения всезнающего эксперта.

В каждой конкретной ситуации истинное сообщение несёт только информацию, а абсолютно ложное — одну только дезинформацию. Условно ложное предложение s рассматривается как конъюнкция: sTsF, где sT — истинная часть сообщения, sF — ложная часть сообщения. При этом требуется, чтобы sT и sF были логически независимыми (это нужно, в частности, для того, чтобы противоречие не оказалось условно ложным предложением). Тогда ненормализованные меры количества информации inE(s) и количества дезинформации miE(s) в условно ложном предложении s с точки зрения эксперта определяются следующим образом:

inE(s)=cont(sT),
miE(s)=cont(sF).

Индекс «E», которым помечены символы «in» и «mi» в формулах, указывает на то, что рассматриваются количества информации и дезинформации с точки зрения эксперта. Нормализованные меры количества семантической информации infE(s) и дезинформации misE(s) в условно ложном предложении s с точки зрения эксперта:

infE(s)=log211cont(sT)=log21q(sT),
misE(s)=log211cont(sF)=log21q(sF).

Противоречие с точки зрения эксперта несёт нулевое количество информации и бесконечное количество дезинформации. Таким образом решается парадокс Бар-Хиллела-Карнапа. Бесконечное количество дезинформации объясняется тем, что, если бы противоречие вдруг кому-то показалось истиной, то мир изменился бы для него до неузнаваемости. Двумя словами это не описать. Предположим, что получатель информации имеет условно ложные знания e, эквивалентные конъюнкции: eTeF, где eT — истинная часть его знаний, eF — заблуждения. Тогда с точки зрения эксперта, получив условно ложное сообщение s, адресат реально имеет семантическую информацию и дезинформацию в следующих количествах:

infE(s/e)=log2q(eT)q(sTeT)=log21q(sT/eT),
misE(s/e)=log2q(eF)q(sFeF)=log21q(sF/eF).

Если получатель воспринимает s как истинное предложение и конъюнкция se не является противоречием, то с его точки зрения он получил следующее количество информации:

infR(s/e)=log21q(s/e)=infE(s/e)+misE(s/e).

Индекс «R» обозначает оценку адресата. Очевидно, что точное количество информации (и дезинформации) в пришедшем сообщении может определить только эксперт, а получатель способен лишь на более-менее точные оценки.

Теория универсальной семантической информации

Формальное описание семантической информации, применимое для всех видов физических систем (живых и неживых) дано математиком Дэвидом Волпертом (David Wolpert) в его работе "Semantic information, agency, and nonequilibrium statistical physics": синтаксическая информация, которой обладает физическая система об окружающей среде, и которая казуально необходима системе для поддержания собственного существования в состоянии низкой энтропии.

Казуальная необходимость определяется в терминах гипотетических вмешательств (counter-factual interventions), которые рандомизируют корреляции между системой и внешней средой. Критерием степени автономности физической системы является объём имеющейся семантической информации.

Примечания

Шаблон:Примечания

  1. Ошибка цитирования Неверный тег <ref>; для сносок list1 не указан текст
  2. Ошибка цитирования Неверный тег <ref>; для сносок list2 не указан текст
  3. Ошибка цитирования Неверный тег <ref>; для сносок list3 не указан текст
  4. Ошибка цитирования Неверный тег <ref>; для сносок list4 не указан текст
  5. Ошибка цитирования Неверный тег <ref>; для сносок list5 не указан текст
  6. Ошибка цитирования Неверный тег <ref>; для сносок list6 не указан текст
  7. Ошибка цитирования Неверный тег <ref>; для сносок list7 не указан текст
  8. Ошибка цитирования Неверный тег <ref>; для сносок list8 не указан текст
  9. Ошибка цитирования Неверный тег <ref>; для сносок list9 не указан текст
  10. Ошибка цитирования Неверный тег <ref>; для сносок list10 не указан текст
  11. Ошибка цитирования Неверный тег <ref>; для сносок list11 не указан текст
  12. Ошибка цитирования Неверный тег <ref>; для сносок list12 не указан текст
  13. Ошибка цитирования Неверный тег <ref>; для сносок list13 не указан текст
  14. Ошибка цитирования Неверный тег <ref>; для сносок list14 не указан текст