.

В.М. Глушков: «Информация, в самом общем ее понимании, представляет собой меру неоднородности распределения материи и энергии в пространстве и во времени, меру изменений, которыми сопровождаются все протекающие в мире процессы»[47].

С точки зрения А.И. Берга, информация – это отражение в сознании людей объективных причинно-следственных связей в окружающем нас реальном мире.

Таким образом, по мнению Н. Винера и А.И. Берга, информация тесно связана с субъектом восприятия (индивидуумом, социальной группой, обществом), т. е. информация является субъективной, а, по мнению В.М. Глушкова, – объективной категорией. Эти два подхода продолжают существовать и в современной науке[48].

Общая характеристика теоретических концепций и подходов к изучению закономерностей информационного обмена. В процессах информационного обмена нередко складываются ситуации, в которых качество информации зависит от того, насколько человек подготовлен к ее восприятию. Информация может характеризоваться с количественной (статистической) и качественной (ценностной) стороны. Ценность информации в свою очередь может оцениваться как объективно, так и субъективно. В соответствии с этим теоретические подходы к изучению закономерностей информационного обмена могут быть разделены на синтаксические, семантические и прагматические концепции. Аналогично называются основные разделы научного направления семиотики[49]: синтактика, семантика, прагматика.

Синтаксические концепции информационного обмена. Становление статистической теории информации относится к 50-х годам XX века, когда американским инженером Р. Хартли была введена количественная мера информации, передаваемой по каналам связи.

Рассмотрим простую игровую ситуацию. До получения сообщения о результате подбрасывания монеты человек находится в состоянии неопределенности. Сообщение партнера дает ему информацию, снимающее эту неопределенность. Заметим, что число возможных исходов в описанной ситуации равно 2, они – равновероятны, и каждый раз передаваемая информация полностью снимала возникавшую неопределенность.

Понятие «бит». Р. Хартли принял передаваемое по каналу связи «количество информации», снимающее неопределенность относительно результатов события, имеющего два равновероятных исхода путем указания на один из них, за единицу информации, в дальнейшем получившую название бит.

Создатель статистической теории информации К. Шеннон обобщил результаты Хартли. Его труды явились ответом на развитие в середине XX века радио, телефона, телеграфа, телевидения. Теория информации Шеннона позволяла ставить и решать задачи оптимального кодирования передаваемых сигналов с целью повышения пропускной способности каналов связи, подсказывала пути борьбы с помехами на линиях и т. д.

В работах Хартли и Шеннона информация представляется в виде отношений сигналов, знаков, сообщений – синтаксических отношений. Количественная мера Хартли-Шеннона не претендует на оценку содержательной (семантической) или полезной (прагматической) сторон передаваемого сообщения.

Кибернетическая теория информации. Новый этап теоретического расширения понятия информации связан с кибернетикой – наукой об управлении и связи в живых организмах, обществе и машинах. Кибернетика формулирует принцип единства информации и управления, который особенно важен для анализа процессов в самоуправляющихся, самоорганизующихся биологических и социальных системах.

Развитая в работах Н. Винера концепция предполагает, что управление в упомянутых системах является процессом переработки информации некоторым центральным устройством, получаемой от источников первичной информации и передачи ее в те участки системы, где она воспринимается ее элементами как приказ для выполнения действия. По совершении действия сенсорные рецепторы готовы к передаче информации об изменившейся ситуации для выполнения нового цикла управления. Так организуется циклический алгоритм управления и циркуляции информации в системе. При этом важно, что главную роль играет здесь содержание информации, передаваемой рецепторами и центральным устройством.