ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 16.10.2024
Просмотров: 186
Скачиваний: 1
критика была направлена против |
материализма |
м е х а |
||
н и с т и ч е с к о г о — он боролся за |
материализм, |
соот |
||
ветствующий д у х у |
н а у к и |
середины XX столетня. |
||
Конечно, тезис |
об объективности содержания понятия |
|||
информации — это |
только исходный пункт диалектико- |
|||
материалистического анализа |
феномена информации. За |
ним следует кропотливая работа по раскрытию того, в чем состоит эта «объективность». Это раскрытие нужно не только для ф и л о с о ф с к о г о осмысления мира. В нем нуждаются и «конкретные» науки, и техника, а особенно кибернетика. Это, в частности, существенно в связи с при ложениями теории информации вне того круга задач, где она первоначально возникла, а также в связи с разработкой информационно-поисковых и информационно-логических систем. В самом деле, здесь возникают задачи не столько связанные с измерением, количественной характеристи кой информации, сколько с изучением способов выраже ния информационных процессов, скажем, в биологии и медицине, и т. д. Вообще уяснение «природы» информа ции небезразлично для ряда приложений аппарата и идей теории информации (и теории систем информации) в раз личных областях и в применении к разным задачам: в науке о жизни, в языкознании, химии, в практике построе ния информационных языков и т. д. В связи со всеми этими задачами становятся ясными многоаспектность информа ции и многообразие возможных подходов к ее точной оцен ке. Возникает вопрос, в какой мере в той или иной области теории информации и кибернетики (и их приложений) «работают» те или иные «стороны» феномена информации или способы его оценки.
Опыт философской работы в области кибернетики по казал, что проблема раскрытия «природы» информации (хотя она затрагивалась в десятках работ) не является тривиальной. С содержательно-философского анализа по нятия информации — его «природы»— мы и начнем рас смотрение проблем, составляющих предмет данной главы.
2. Теории информации
Понятие информации широко вошло в науку вместе со статистической — шенноновской — теорией информации (главным понятием которой является количество инфор мации) и, более обще, вместе с кибернетикой (в которой
228
понятие информации, наряду с понятием управления, при надлежит к числу наиболее фундаментальных).
Самый исходный смысл термина «информация» свя зан со сведениями, сообщениями и их передачей. Бурное развитие в середине нашего века телефона, телеграфа, ра дио, телевидения и других средств массовой коммуника ции требовало повышения эффективности процессов пере дачи, хранения, переработки сообщений — информации. А это сделало практически важной задачу количественно го измерения передаваемых сообщений. Ответом на эту потребность и явилась статистическая (шенноновская) те ория информации. Если говорить более конкретно, эта те ория возникла на основе задач повышения пропускной способности и помехоустойчивости технических каналов связи. Необходимость оценки количественных (не связан ных со смыслом) параметров сообщений при решении за дач оптимального кодирования при передаче сообщений по физическим каналам связи (при наличии помех или в их отсутствие) обусловила возникновение основного поня тия «количество информации». Это понятие — понятие, с которым оказалась необходимо связанной целая система понятий, таких, как «пропускная способность канала», «из быточность сообщения», «энтропия источника сообщений» и др.,— в общей форме введенное К. Шенноном в его осно вополагающей работе 1948 г. «Математическая теория свя зи» (русский перевод в кн.: К. Шеннон, 1963), открыло путь к систематическому изучению процессов хранения и передачи информации5.
Исходные представления статистической теории были с большой ясностью указаны Шенноном в работе 1948 г.: «Основная задача связи состоит в точном или приближен ном воспроизведении в некотором месте сообщения, вы бранного для передачи в другом месте. Часто сообщения имеют значение, т. е. относятся к некоторой системе, име ющей определенную физическую или умозрительную сущность, или находятся в соответствии с некоторой сис темой. Эти семантические аспекты связи не имеют отно
5 В формировании теории информации, кроме Шеннона, прини
мали участие многие: до Шеннона — Найквист |
и |
Хартли (на |
|
это указывает сам Шеннон), после |
и наряду |
с |
Шенноном — |
Н. Винер и А. Н. Колмогоров (см. Н. |
Винер, 1964, |
гл. 12). Идеи те |
ории информации, так сказать, носились в воздухе, и подходы к ней делались с разных сторон.
229
шения к технической стороне вопроса. Существенно лишь, что посылаемое сообщение является сообщением, выбран ным из некоторого множества в о з м о ж н ы х сообщений.
Система связи должна быть спроектирована так, чтобы ее можно было использовать для передачи л ю б о г о в о з м о ж н о г о сообщения, а не только того, которое будет в действительности выбрано, так как результат этого выбо ра еще неизвестен в момент проектирования» (К. Шеннон, 1963, стр. 243—244; разрядка наша,— Б. Б.). Содержа щееся в этом отрывке использование понятия возможнос ти — в форме «множества возможных сообщений»— ясно говорит об облике теории: о ее построении на основе веро ятностно-статистических представлений.
И действительно, именно на этой основе в теории Шен нона был совершен переход от интуитивного представле ния об информации как о сведениях того или иного рода к точному понятию (количества) информации, определяе мому на базе вероятности. Как известно, понятие вероят ности применимо для описания ситуаций, содержащих не определенность. Сообщение, не дающее ничего «нового», не «снимающее» неопределенности, с этих позиций счита ется не содержащим информации. Информация — это сообщения, уменьшающие или устраняющие неопределен
ность, |
наличествовавшую |
до их поступления; |
это то, |
что |
|||
сокращает число |
возможностей выбора |
(альтернатив, |
ги |
||||
потез, |
вопросов, предположений ит. п,). |
Процедура умень |
|||||
шения |
неопределенности |
всегда |
связана с актами в ы |
||||
бора |
альтернатив из какого-то |
их множества — множе |
|||||
ства возможных |
событий. Неопределенность |
(в обоих |
своих возможных смыслах: неопределенность знаний об объекте или ситуации и неопределенность самого объекта, ситуации) и вероятность связаны между собой (так, для события, исход которого может реализовываться двумя альтернативами, «меру» неопределенности — измеряемую не в логарифмических единицах — естественно считать равной 2, а вероятность каждого исхода, если они равно
вероятны,— равной Ѵг) • |
Эта взаимосвязь идей неопреде |
|
ленности и |
вероятности и послужила гносеологическим |
|
и с х о д н ы м |
п у н к т о м |
применения вероятностного |
аппарата к количественной оценке степени неопределен ности, устраняемой сообщением (вообще объектом, собы тием) ,— т. е. меры несомой им информации — в статисти ческой теории информации.
230
Очевидно, что такой подход отображает паше естест венное, интуитивное представление об акте познания. Это хорошо показано в методологическом анализе поня тия информации, проведенном А. Молем (1966). В каче стве отправной точки Моль берет определение информа ции, которое дал Маккей (предложивший некоторую но менклатуру теоретико-информационных понятий): в наи более общем смысле информация есть то, что прибавляет нечто новое к некоторому имеющемуся представлению. Этот исходный пункт связан, коиечпо, с некоторой схемой передачи сообщений, очерченной, например, К. Шеннопом в работе 1948 г. в виде: «источник информации» — «передатчик» — «канал передачи сигналов» (на который действует «источник шума») — «приемник» — «адресат» (причем предполагается, что «оценка» информации произ водится адресатом). Тогда з н а ч и м о с т ь ( и н фо р м а т и в н о с т ь ) сообщения для адресата окажется связанной
с его н е п р е д в и д е н н о с т ь ю , |
н е о ж и д а н н о с т ь ю |
|
или, как еще говорит А. Моль, |
о р и г и н а л ь н о с т ь ю : |
|
степень последней |
и может служить мерой к о л и ч е |
|
с т в а информации. |
Тем самым |
и з м е р е н и е информа |
ции представляется в вероятностных терминах: то, что мало вероятно и поэтому трудно предвидеть, содержит большое количество информации, а что в высокой степе
ни вероятно — предвидимо |
и |
обладает малым |
количе |
||||
ством информации. |
что |
информация — а значит и опреде |
|||||
Открытие того, |
|||||||
ленные стороны того, что |
в философии называется з н а |
||||||
ние м, — может |
трактоваться |
как и з м е р и м а я в е л и |
|||||
ч ина , |
явилось |
п е р в ы м |
в а ж н ы м г н о с е о л о г и ч е |
||||
с к им |
р е з у л ь т а т о м |
статистической теории информа |
|||||
ции. |
Конечно, |
это |
не |
была исторически первая теория, |
|||
подошедшая к |
знанию |
с |
«количественными |
мерками». |
Достаточно напомнить, что на начальных этапах развития теории вероятностей преобладала л о г и ч е с к а я ее интер претация (при которой вероятность понималась как мера знания о возможности события); что в XX столетии, когда в теории вероятностей утвердились нелогические (напри мер, частотная) концепции вероятности, упомянутую гно
сеологическую |
функцию — функцию «количественной |
оценки» знания |
(в определенной его форме) — стала вы |
полнять математическая статистика и затем, уже в наши дни, также и возникшая на ее базе математическая теория
231