Отрицательная энтропия, которую описывал Эрвин Шредингер, это, разумеется, не энтропия с отрицательным знаком – это, очень условно говоря, мера удаленности от максимальной энтропии в рассматриваемой системе, хотя само понятие негативной энтропии (негэнтропии) на самом деле гораздо более сложное, глубокое и весьма запутанное, даже в сравнении с часто неоднозначно понимаемой «обычной», «позитивной» энтропией в своих самых разнообразных интерпретациях. Некоторые исследователи, вслед за Норбертом Винером, увидевшим за очевидным сходством формул Больцмана-Гиббса и Хартли-Шеннона более глубокую связь термодинамической и информационной энтропий, ассоциируют негэнтропию с информацией, что представляется красивым, но до сих пор далеко не всеми признаваемым суждением.
Одной из точек смыкания термодинамической и информационной энтропии являлся, например, известный парадокс «демона Максвелла», гипотетического устройства, стоящего на границе двух объемов и способного различать быстрые и медленные молекулы и, соответственно, пропускать или не пропускать молекулы в одну сторону, что спонтанно ведет к увеличению упорядоченности системы и падению энтропии, что формально противоречит второму началу термодинамики. Решение парадокса было предложено французским и американским физиком Леоном Бриллюэном, математически показавшем, что даже демон ничего не хочет делать бесплатно: чтобы увидеть скорость молекулы, ему нужно заплатить энергией, которая не может быть менее энергии одного теплового кванта (0,025 эВ при комнатной температуре), и эта энергия соответствует минимальной цене одного бита информации. То есть демон совершает работу по обработке информации, и эта работа охлаждает одно тело и нагревает другое, и так же, как за работу любого домашнего холодильника, за эту работу надо платить.
Теория семантической информации
Демон Максвелла получает (увеличивает) информацию о системе, равную уменьшению энтропии (или увеличению негэнтропии), и, казалось бы, отсюда информация = негэнтропия. Однако Бриллюэн различал свободную информацию (без четкого определения) и связанную, возникающую, когда возможные случаи могут быть представлены как микроинформация физической системы, и замечал, что «только связанная информация будет представляться связанной с энтропией».
В российской литературе и части зарубежной со связанной информацией Бриллюэна наиболее соотносится термин «микроинформация», отличающийся от «макроинформации» (практически всегда соответствующей общему термину «информация» в большинстве резонов его применения) тем, что не обладает свойством фиксируемости (запоминаемости). В работах Дэвида Уолперта (см. ниже) с микроинформацией может быть сопоставлена «синтаксическая информация», а с макроинформацией – «семантическая (смысловая) информация». Помимо запоминаемости вторым критерием информации в наиболее оптимальном для практического применения определении информации по Генри Кастлеру является случайность: «информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных» (Кастлер Г., 1967). Важнейший момент в данной теории информации следует из ее определения: возникновение (генерация) информации – это случайный, но запомненный выбор. Второй важный момент – это наличие ценности информации, мерилом которой служит степень ее соответствия цели системы. Она может определяться как функция, включающая отношение вероятности достижения цели (или уменьшения энергетических, временнЫх или материальных затрат, если цель безусловно достижима) после получения информации, к этой вероятности или снижению затрат без обладания этой информацией (Чернавский Д. С., 2004). До получения информации вероятность достижения цели определяется тем, какой предварительной запомненной информацией (тезаурусом) уже располагает принимающий ее элемент. Имея минимумом информации, хотя бы минимальной запомненной информацией «о самом себе», элемент располагает минимальным тезаурусом.