Так, лидер партии «Яблоко» Григорий Явлинский в своей статье «Политическая энтропия. Цифровые технологии и глобализация беспорядка» (2020) предполагает, что на смену эпохи глобализации, предположительно, более упорядоченной, приходит «век беспорядка», где «существует множество труднопредсказуемых событий и развилок, и куда, как говорится, кривая выведет, не знает никто». И этот переход с ростом беспорядка предполагается рассматривать как рост «политической энтропии». Однако более правильным будет скорее обратное – падение энтропии: несмотря на возникновение потоков событий с непредсказуемой динамикой, для отдельных людей – совокупности элементов системы – количество вариантов выбора («свободы») на самом деле уменьшается, о чем совершенно справедливо указывает и сам Г. Явлинский в заключение своей статьи, связывая это в первую очередь с добровольным отказом людей от свободы выбора, нежели направленной деятельностью авторитарных лидеров. Отдельный большой вопрос, разумеется, насколько этот выбор на самом деле доброволен, но несомненно, что само уменьшение свободы выбора для подавляющего большинства элементов системы – это несомненно снижение ее энтропии. Тем более актуальное в свете взрывного развития информационных технологий и роста все более детализированной информации о системе. Информации, к сожалению, неравномерно распределяемой, но в итоге дающей уменьшение неполноты информации о системе (см. ниже), что также показывает скорее падение «политической энтропии», нежели ее возрастание. И тем более, что «добровольный отказ от свободы» и рост информационной насыщенности общественного пространства могут оказаться двумя сторонами одной медали.

Термодинамика и информация

Со времен установления принципа Людвига Больцмана (ок. 1875 г.) стало возможным рассматривать классическую термодинамическую и информационную энтропию как практически и теоретически очень близкие, если не равнозначные. В формулировке Макса Планка (ок. 1900 г.) этот принцип как связь средней энтропии системы с вероятностью данного состояния определяется логарифмической зависимостью:

S = kln(Ω),

где S – общая энтропия состояния системы, константа k = = 1,38*10-23 Дж/К, названная Планком постоянной Больцмана, а Ω – статистический вес состояния, являющийся числом возможных равновероятных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние. Более ранняя формулировка Джозайя Гиббса (1878 г.) для микросостояний, имеющих разную вероятность, устанавливает зависимость в виде суммы произведения вероятности состояний на натуральные логарифмы этих же вероятностей, взятой с противоположным знаком:



где P>i – вероятность пребывания системы в состоянии i. Минус в начале формулы необходим для приведения обеих частей формулы к общему знаку из-за постоянной отрицательности логарифмов вероятности (так как вероятности всегда меньше 1) и неизменной положительности энтропии. Сам Больцман, комментируя свое физико-статистическое определение энтропии, отмечал, что энтропия характеризует недостающую информацию о системе. В этой интерпретации энтропия может считаться мерой неполноты информации о системе.

В ходе разработки углубленной теории информации информационной энтропией стала считаться мера неопределенности, независимо выведенная как сумма произведений вероятностей событий на логарифмы этих же вероятностей (формула Хартли-Шеннона, основателей теории информации), взятая с противоположным знаком:



где H(x) – средняя энтропия сообщения, иногда обозначаемая также как мера неопределенности какого-либо события, или даже как количество информации,