Файл: Бирюков, Б. В. Кибернетика и методология науки.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 16.10.2024

Просмотров: 186

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

критика была направлена против

материализма

м е х а ­

н и с т и ч е с к о г о — он боролся за

материализм,

соот­

ветствующий д у х у

н а у к и

середины XX столетня.

Конечно, тезис

об объективности содержания понятия

информации — это

только исходный пункт диалектико-

материалистического анализа

феномена информации. За

ним следует кропотливая работа по раскрытию того, в чем состоит эта «объективность». Это раскрытие нужно не только для ф и л о с о ф с к о г о осмысления мира. В нем нуждаются и «конкретные» науки, и техника, а особенно кибернетика. Это, в частности, существенно в связи с при­ ложениями теории информации вне того круга задач, где она первоначально возникла, а также в связи с разработкой информационно-поисковых и информационно-логических систем. В самом деле, здесь возникают задачи не столько связанные с измерением, количественной характеристи­ кой информации, сколько с изучением способов выраже­ ния информационных процессов, скажем, в биологии и медицине, и т. д. Вообще уяснение «природы» информа­ ции небезразлично для ряда приложений аппарата и идей теории информации (и теории систем информации) в раз­ личных областях и в применении к разным задачам: в науке о жизни, в языкознании, химии, в практике построе­ ния информационных языков и т. д. В связи со всеми этими задачами становятся ясными многоаспектность информа­ ции и многообразие возможных подходов к ее точной оцен­ ке. Возникает вопрос, в какой мере в той или иной области теории информации и кибернетики (и их приложений) «работают» те или иные «стороны» феномена информации или способы его оценки.

Опыт философской работы в области кибернетики по­ казал, что проблема раскрытия «природы» информации (хотя она затрагивалась в десятках работ) не является тривиальной. С содержательно-философского анализа по­ нятия информации — его «природы»— мы и начнем рас­ смотрение проблем, составляющих предмет данной главы.

2. Теории информации

Понятие информации широко вошло в науку вместе со статистической — шенноновской — теорией информации (главным понятием которой является количество инфор­ мации) и, более обще, вместе с кибернетикой (в которой

228


понятие информации, наряду с понятием управления, при­ надлежит к числу наиболее фундаментальных).

Самый исходный смысл термина «информация» свя­ зан со сведениями, сообщениями и их передачей. Бурное развитие в середине нашего века телефона, телеграфа, ра­ дио, телевидения и других средств массовой коммуника­ ции требовало повышения эффективности процессов пере­ дачи, хранения, переработки сообщений — информации. А это сделало практически важной задачу количественно­ го измерения передаваемых сообщений. Ответом на эту потребность и явилась статистическая (шенноновская) те­ ория информации. Если говорить более конкретно, эта те­ ория возникла на основе задач повышения пропускной способности и помехоустойчивости технических каналов связи. Необходимость оценки количественных (не связан­ ных со смыслом) параметров сообщений при решении за­ дач оптимального кодирования при передаче сообщений по физическим каналам связи (при наличии помех или в их отсутствие) обусловила возникновение основного поня­ тия «количество информации». Это понятие — понятие, с которым оказалась необходимо связанной целая система понятий, таких, как «пропускная способность канала», «из­ быточность сообщения», «энтропия источника сообщений» и др.,— в общей форме введенное К. Шенноном в его осно­ вополагающей работе 1948 г. «Математическая теория свя­ зи» (русский перевод в кн.: К. Шеннон, 1963), открыло путь к систематическому изучению процессов хранения и передачи информации5.

Исходные представления статистической теории были с большой ясностью указаны Шенноном в работе 1948 г.: «Основная задача связи состоит в точном или приближен­ ном воспроизведении в некотором месте сообщения, вы­ бранного для передачи в другом месте. Часто сообщения имеют значение, т. е. относятся к некоторой системе, име­ ющей определенную физическую или умозрительную сущность, или находятся в соответствии с некоторой сис­ темой. Эти семантические аспекты связи не имеют отно­

5 В формировании теории информации, кроме Шеннона, прини­

мали участие многие: до Шеннона — Найквист

и

Хартли (на

это указывает сам Шеннон), после

и наряду

с

Шенноном —

Н. Винер и А. Н. Колмогоров (см. Н.

Винер, 1964,

гл. 12). Идеи те­

ории информации, так сказать, носились в воздухе, и подходы к ней делались с разных сторон.

229


шения к технической стороне вопроса. Существенно лишь, что посылаемое сообщение является сообщением, выбран­ ным из некоторого множества в о з м о ж н ы х сообщений.

Система связи должна быть спроектирована так, чтобы ее можно было использовать для передачи л ю б о г о в о з ­ м о ж н о г о сообщения, а не только того, которое будет в действительности выбрано, так как результат этого выбо­ ра еще неизвестен в момент проектирования» (К. Шеннон, 1963, стр. 243—244; разрядка наша,— Б. Б.). Содержа­ щееся в этом отрывке использование понятия возможнос­ ти — в форме «множества возможных сообщений»— ясно говорит об облике теории: о ее построении на основе веро­ ятностно-статистических представлений.

И действительно, именно на этой основе в теории Шен­ нона был совершен переход от интуитивного представле­ ния об информации как о сведениях того или иного рода к точному понятию (количества) информации, определяе­ мому на базе вероятности. Как известно, понятие вероят­ ности применимо для описания ситуаций, содержащих не­ определенность. Сообщение, не дающее ничего «нового», не «снимающее» неопределенности, с этих позиций счита­ ется не содержащим информации. Информация — это сообщения, уменьшающие или устраняющие неопределен­

ность,

наличествовавшую

до их поступления;

это то,

что

сокращает число

возможностей выбора

(альтернатив,

ги­

потез,

вопросов, предположений ит. п,).

Процедура умень­

шения

неопределенности

всегда

связана с актами в ы ­

бора

альтернатив из какого-то

их множества — множе­

ства возможных

событий. Неопределенность

(в обоих

своих возможных смыслах: неопределенность знаний об объекте или ситуации и неопределенность самого объекта, ситуации) и вероятность связаны между собой (так, для события, исход которого может реализовываться двумя альтернативами, «меру» неопределенности — измеряемую не в логарифмических единицах — естественно считать равной 2, а вероятность каждого исхода, если они равно­

вероятны,— равной Ѵг) •

Эта взаимосвязь идей неопреде­

ленности и

вероятности и послужила гносеологическим

и с х о д н ы м

п у н к т о м

применения вероятностного

аппарата к количественной оценке степени неопределен­ ности, устраняемой сообщением (вообще объектом, собы­ тием) ,— т. е. меры несомой им информации — в статисти­ ческой теории информации.

230



Очевидно, что такой подход отображает паше естест­ венное, интуитивное представление об акте познания. Это хорошо показано в методологическом анализе поня­ тия информации, проведенном А. Молем (1966). В каче­ стве отправной точки Моль берет определение информа­ ции, которое дал Маккей (предложивший некоторую но­ менклатуру теоретико-информационных понятий): в наи­ более общем смысле информация есть то, что прибавляет нечто новое к некоторому имеющемуся представлению. Этот исходный пункт связан, коиечпо, с некоторой схемой передачи сообщений, очерченной, например, К. Шеннопом в работе 1948 г. в виде: «источник информации» — «передатчик» — «канал передачи сигналов» (на который действует «источник шума») — «приемник» — «адресат» (причем предполагается, что «оценка» информации произ­ водится адресатом). Тогда з н а ч и м о с т ь ( и н фо р м а ­ т и в н о с т ь ) сообщения для адресата окажется связанной

с его н е п р е д в и д е н н о с т ь ю ,

н е о ж и д а н н о с т ь ю

или, как еще говорит А. Моль,

о р и г и н а л ь н о с т ь ю :

степень последней

и может служить мерой к о л и ч е ­

с т в а информации.

Тем самым

и з м е р е н и е информа­

ции представляется в вероятностных терминах: то, что мало вероятно и поэтому трудно предвидеть, содержит большое количество информации, а что в высокой степе­

ни вероятно — предвидимо

и

обладает малым

количе­

ством информации.

что

информация — а значит и опреде­

Открытие того,

ленные стороны того, что

в философии называется з н а ­

ние м, — может

трактоваться

как и з м е р и м а я в е л и ­

ч ина ,

явилось

п е р в ы м

в а ж н ы м г н о с е о л о г и ч е ­

с к им

р е з у л ь т а т о м

статистической теории информа­

ции.

Конечно,

это

не

была исторически первая теория,

подошедшая к

знанию

с

«количественными

мерками».

Достаточно напомнить, что на начальных этапах развития теории вероятностей преобладала л о г и ч е с к а я ее интер­ претация (при которой вероятность понималась как мера знания о возможности события); что в XX столетии, когда в теории вероятностей утвердились нелогические (напри­ мер, частотная) концепции вероятности, упомянутую гно­

сеологическую

функцию — функцию «количественной

оценки» знания

(в определенной его форме) — стала вы­

полнять математическая статистика и затем, уже в наши дни, также и возникшая на ее базе математическая теория

231