"В.И.Корогодин, В.Л.Корогодина. Информация как основа жизни " - читать интересную книгу автора

же единицы измерения, биты, можно применять для оценки и емкости тары, и
количества информации, которая в ней может содержаться. В-третьих, при
измерении в битах количество информации В, содержащейся в сообщении,
заключено в интервал 0вВвН, где Н - емкость составляющих сообщение носителей
информации. Н сообщения, таким образом, - это верхняя граница того
количества информации, которое может в нем содержаться, причем В = Н только
при абсолютно компактном тексте.
К этим же выводам можно прийти и другим путем, рассматривая смысловое
содержание понятия "избыточности", или условную вероятность встречаемости i-
ro символа после 1-го, 2-го и т. д., а также после разных сочетаний двух,
трех и т. д. символов [11]. При таком подходе легко показать, что величина Н
имеет максимальное значение только при совершенно случайном расположении
символов в сообщении, а при возрастании его осмысленности величины pi
независимо от i, стремятся к единице, а Я стремится к нулю. В нашей
интерпретации это выглядит вполне естественным: по мере заполнения тары
информацией свободного места в ней остается все меньше. Если перед правыми
частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер [5], то
величина Н будет меньше или равной нулю и будет обозначать количество
недостающей в таре информации до ее полного заполнения. Естественно, что эта
величина имеет минимальное значение лишь при совершенно случайном
расположении составляющих сообщение букв.
Теперь вернемся опять к вопросу о дискретности и непрерывности
информации. То обстоятельство, что элементарные единицы носителей
информации - буквы - дискретны, ничего не говорит ни в пользу дискретности,
ни в пользу континуальности самой информации. Дискретность носителей
информации и различия в информационной емкости элементарных носителей в
разных системах записи таковы, что в общем случае емкость разных носителей
не является кратной какому-либо определенному числу, которое можно было бы
принять за элементарную единицу количества самой информации. Это же
относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех
случаях, когда сообщения записаны бинарным кодом, их информационная емкость
выражается целым числом битов, в подавляющем же большинстве других случаев
она может быть выражена любым дробным числом. Это приводит к интересному
следствию: переводя информацию с одной системы записи на другую, мы, как
правило, вынуждены использовать тару разного объема. Действительно, если для
некоторого сообщения, записанного 24-х буквенным алфавитом, H = 78,37 бит,
то при записи его 2-х буквенным алфавитом, мы в лучшем случае можем
использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при
переводе с одной системы записи на другую изменяется и количество самой
информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и
это неравенство хорошо соответствует описанной ситуации.
И вообще, имеем ли мы основания говорить о дискретности или
непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли
говорить о "полной" или "неполной" информации, имея в виду достаточность или
недостаточность данной информации для построения какого-либо оператора.
Однако, как это будет специально рассмотрено ниже, ни об одном операторе не
может существовать полностью исчерпывающей информации. Это обстоятельство
(или, точнее, принцип) делает весьма шатким и такие категории, как "полнота"
и "неполнота". Поэтому о количественных аспектах информации (как, впрочем, и
о других) можно судить лишь по тем или иным формам ее проявления (например,