"В.И.Корогодин, В.Л.Корогодина. Информация как основа жизни " - читать интересную книгу автора

телевидения) остро нуждалось в ограничении присущего понятию "информация"
полиморфизма в целях разработки все более совершенных методов ее передачи,
приема и хранения. Всем этим запросам, казалось, прекрасно соответствовала
шенноновская концепция количества информации.
Однако надо ясно представить себе, что, не давая определения понятию
"информация" и в то же время называя "количеством информации" частотную
характеристику букв кода, К. Шеннон как бы создавал возможность для
отождествления двух совершенно разных по своей природе феноменов информации
как семантики сообщения и "информации" как частоты осуществления какого-либо
события. Это делало возможной подмену терминов, что и было быстро
реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в
качестве основного достоинства новой теории называл отождествление
информации с величиной, обратной частоте осуществления какого-либо события.
Термин "информация" в указанном выше смысле окончательно слился с термином
"количество информации".
Формула К. Шеннона (6) по структуре своей подобна формуле, предложенной
Л. Больцманом для выражения количества энтропии. Это формальное сходство
послужило К. Шеннону поводом называть "энтропией", по аналогии с физической
энтропией, свойство источника сообщений порождать в единицу времени то или
иное число сигналов на выходе, а "энтропией сообщения" - частотную
характеристику самих сообщений, выражаемую формулами (6) и (7).
Кажущаяся простота предложенного К. Шенноном решения проблемы измерения
количества информации создавала видимость столь же легкого решения и других
связанных с использованием термина "информации" проблем. Это и породило ту
эйфорию, ту шумиху вокруг зарождающейся теории информации, характерную для
пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против
которой было направлено его провидческое эссе "Бандвагон" [7].

Информация и энтропия

Своей зрелости классическая теория информации достигла к середине
пятидесятых годов. Главная причина столь быстрого "созревания" - простота и
элегантность ее математического аппарата, опирающегося на теорию
вероятности.
Отсутствие строгого определения понятия "информация" создавало
впечатление, что объектом теории информации является нечто, имеющее мало
общего с тем, что называют информацией в обыденной жизни. Действительно,
если "в быту" доминирует содержательная, смысловая сторона информации, то
здесь семантика информации вообще не рассматривалась. Представление об
энтропии сообщений, развитое К. Шенноном и вскоре дополненное другими
авторами (см. напр. [8-10]), как бы открывало возможность для отождествления
понятия "информация" с понятиями "разнообразие" и "термодинамическая
энтропия". Это порождало соблазн распространения классической теории
информации далеко за пределы теории связи, в том числе на явления неживой и
живой природы и даже на различные области искусства [11-13].
Два утверждения характерны для классической теории информации периода
зрелости. Первое это постулирование "всюдности" информации. Второе
утверждение - это то, что мерой количества информации, связанной с тем или
иным объектом или явлением, может служить редкость его встречаемости или
сложность его структуры. Эти утверждения можно назвать постулатами