"В.И.Корогодин, В.Л.Корогодина. Информация как основа жизни " - читать интересную книгу автора

оптимизацией работы технических систем связи. Совокупность этих
представлений, названная К. Шенноном "математической теорией связи", и
явилась основой классической теории информации.
Теперь обратим внимание на три характерные черты этой работы К.
Шеннона. Во-первых, в ней отсутствует определение понятия "информация".
Во-вторых, термин "количество информации" здесь используется как синоним
статистических характеристик букв, составляющих сообщение. В-третьих, по
отношению к источнику сообщений здесь применяется слово "энтропия". Черты
эти, несущественные в контексте математической теории связи, оказали
значительное влияние на судьбу теории информации.
Отсутствие определения понятия "информация" в работах К. Шеннона и его
предшественников, по-видимому, довольно естественно - они в нем просто не
нуждались. Ведь работы эти были посвящены не теории информации, а теории
связи. То, что по каналам связи передают осмысленные сообщения, т. е.
информацию, было очевидно, - ведь для этого их и создавали. Замечательной
особенностью каналов связи является то, что по ним можно передавать любую
информацию, пользуясь ограниченным числом сигналов или букв. При этом
передают по каналам связи именно буквы, сигналы, а не информацию как
таковую. Объекты передачи, следовательно, имеют материальную, физическую
природу - обычно это модуляции напряженности электрического тока. Ответа
требовал не вопрос "Что такое информация?", а вопрос "Какое количество
информации можно передать в единицу времени, пользуясь данным набором
сигналов?". Предложенное К. Шенноном определение "количества информации" (6)
хорошо согласовывалось с дискретной[1] природой сигналов, обычно
передаваемых по каналам связи. И в то же время, такая мера "количества
информации" создавала ощущение, не встречающее сопротивления на
психологическом уровне, что чем реже происходит данное событие - появление
данного сигнала на выходе канала связи, тем больше это событие "несет с
собой" информации.
Со всем этим можно было бы вполне согласиться, если бы не одно
обстоятельство: отдельные сигналы или буквы, передаваемые по каналам связи,
сами по себе не несут той информации, для обмена которой существуют системы
связи. Информацию содержат лишь сочетания сигналов или букв, причем отнюдь
не любые, а лишь осмысленные, наполненные определенным содержанием. Введение
единой меры количества информации, содержащейся в сообщениях, меры, не
зависящей от их семантики, как будто бы блестяще решало задачу соизмеримости
бесконечного количества возможных различающихся по смыслу сообщений. И в то
же время введение такой меры создавало видимость дробления, квантируемости
информации, видимость возможности оценивать ее количество как сумму
элементарных количеств информации, связанных с каждой отдельной буквой
содержащего ее сообщения.
Напомним, что ко времени выхода в свет работы К. Шеннона [3] научная
общественность была уже подготовлена к ее восприятию. Зарождавшаяся тогда же
кибернетика, или "наука об управлении и связи в животном и машине" [2], уже
использовала термин "информация" для обозначения тех сигналов, которыми
могут обмениваться между собой люди или животные, человек и машина, или
сигналов, воспринимаемых животными или машиной с помощью специальных
рецепторов из окружающей среды с целью оптимизировать свое "поведение". Уже
был пущен в оборот термин "генетическая информация" [4]. Бурное развитие
самых разных технических систем связи (телеграфа, телефона, радио,