В современной правовой литературе информация определяется как нематериальные по своей сути, неразрывно связанные с конкретным материальным носителем, в том числе с языковыми системами, обладающие количественными и качественными характеристиками сведения о социальной форме движения материи и обо всех других ее формах, в той мере, в какой они используются участниками общественных отношений[178].
По мнению А.Е. Шерстобитова, информация есть сообщение, содержащее комплекс сведений (данных) об определенном объекте или его свойствах, а также о явлениях и процессах, происходящих в природе и обществе[179].
Приведенные определения отражают признаки информации:
1) связь информации с человеческим знанием об окружающем мире, с познанием его свойств;
2) возможность передачи информации от одного субъекта к другому;
3) знаковый, символический характер информации.
1.2. Естественнонаучные методы раскрытия сущности информации
Научные исследования теоретических и практических проблем, связанных с феноменом информации, познанием ее сущности, характерных свойств и функций, выявлением количественных, качественных и ценностных аспектов в XX столетии велись по трем основным направлениям:
во-первых, конструировался математический аппарат, отражающий свойства информации[180];
во-вторых, с помощью имеющихся математических средств изучались свойства информации, в частности измерялась ценность, полезность информации с точки зрения ее использования[181];
в-третьих, информационные методы применялись в отдельных отраслях науки, в частности, в биологии, педагогике, психологии, социологии и др. Например, в лингвистике проводились исследования информационной емкости языков народов мира.
Интуитивное понятие информации было уточнено кибернетикой, которая изучала живые организмы и машины с точки зрения их способности воспринимать определенную информацию, сохранять ее «в памяти», передавать по «каналам связи» и перерабатывать в «сигналы», направляющие их деятельность.
В ходе дальнейших естественнонаучных исследований понятие информации было расширено и включило в себя обмен сведениями не только между людьми, но между человеком и машиной, между двумя машинами; обмен сигналами в животном и растительном мире; передачу признаков («генетической информации») от одной живой клетки другой клетке, от одного организма – другому.
Кроме того, была предложена количественная мера информации, что привело к созданию научной теории информации.
Началом развития теории информации послужила написанная в 1948 г. работа американского инженера и ученого К.Э. Шеннона «Математическая теория связи», в которой автор, с позиций разработанной им теории, объяснял некоторые процессы, происходящие в биологических структурах, что позволяло рассчитывать количество информации, характеризующей строение биологических объектов. Основным понятием теории К.Э. Шеннона явилось количество информации, определяемое как совокупность всех возможных сообщений и их вероятностей, независимо от содержания[182].
По выражению А.Н. Колмогорова, тем самым были заложены основы количественного подхода к исследованию информации, который впоследствии был развит в рамках математической теории информации[183].
Благодаря разработке К.Э. Шенноном абстрактного подхода к информации и введению ее количественной меры, с начала 1950-х гг. многими учеными стали предприниматься попытки использовать понятие информации для объяснения и описания самых разнообразных явлений и процессов, в первую очередь биологических.
Вскоре выяснилось, что количественных характеристик информации недостаточно для исчерпывающего объяснения биологических процессов.