ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 16.10.2024
Просмотров: 140
Скачиваний: 1
С философской точки зрения вполне понятно, что по пытки уяснения «диапазона» понятия причинности в при менении к рассмотрениям кибернетики приводят, наряду с «жесткими» причинными зависимостями в «причинных сетях» (автоматах, системах управления и т. п.), к введе нию представления о «нежестких», в е р о я т н о с т н ы х причинных зависимостях — н е л а п л а с о в с к о й детер минированности. А. А. Марков, например, прямо указыва ет, что предложенное им понимание причинной связи в причинных сетях допускает нелапласовские видоизме нения.
Вообще следует заметить, что во многих частях теоре тической кибернетики наблюдается своеобразный «парал лелизм» лапласовского и нелапласовского подходов. Под последним понимается такая трактовка причинной детер минации, которая допускает ее неоднозначность, предста вимую, в частности, в вероятностно-статистических тер минах. При этом нелапласовская трактовка причинности нередко оказывается обобщением лапласовской. Такая ситуация наблюдается, например, в теории автоматов. Вероятностный автомат с содержательной точки зрения можно считать обобщением понятия детерминированного автомата, в силу чего хорошо известная проблематика абст рактной теории автоматов естественным образом перено сится и в теорию вероятностных автоматов (хотя в послед ней, конечно, и проблематика, и особенно методология ис следований претерпевают существенные изменения) (Б. А. Трахтенброт, Я. М. Барздинь, 1970, стр. 94 и далее; Р. Г. Бухараев, 1970). Другим примером может служить теория формальных нервных сетей, развиваемая в духе Мак-Каллока на основе диаграмм Венна. Вероятностные диаграммы Венна и вероятностные формальные нейроны возникают в результате обобщения «обычных» диатрамм Венна и «обычных» формальных нейронов (И. Б. Гутчин и А. С. Кузичев, 1967; А. С. Кузичев, 1968). Можно да лее отметить, что развивавшаяся Дж. фон Нейманом «ве роятностная логика» рассматривалась им как некоторое обобщение «обычной» формальной логики (Дж. фон Ней ман, 1971; ср. замечание А. Бёркса, 1971а, стр. 47).
Мы уже обращали внимание на то значение, какое имеет для уяснения некоторых философских аспектов понятия информации учет связи философских поня
63
тий отражения и взаимодействия. Как справедливо от мечает В. С. Тюхтип, способность любого объекта природы в процессе взаимодействия продуцировать определенные изменения в другом объекте, создавая в нем отпечатки, следы, по своей структуре изоморфные (в некотором идеа лизированном смысле) какой-то стороне воздействующего объекта, составляет существо присущего всей природе об щего свойства отражения. Но причинно-следственная связь есть частный случай взаимодействия. «Законы причинно сти, законы взаимодействия между объектами природы лежат в основе отношений изоморфизма между отра жаемым и отражающим телом» (В. С. Тюхтин, 1964,
стр. 309).
Родство содержаний понятий отражения и взаимодей ствия проливает свет на взаимосвязь, обнаруживаемую между понятием информации и понятием причинно-след ственной связи. В рамках кибернетического круга идей эта связь в выпуклой форме была подчеркнута А. А. Марко вым. Трактовка им кибернетики как общей теории причин ных сетей вскрывает родство причинности и информации, так как последняя в этом случае может погашаться сле дующим образом: событие А содержит информацию о со бытии В, если на основании совокупности законов приро ды М из того, что имеет место событие А, можно заклю чить о наличии события В (оговорка о предшествовании одного события другому, которая необходима при опреде лении понятия причинности, здесь отсутствует); подобно марковскому определению причиной связи в причинных сетях, данное определение информации допускает пелапласовские видоизменения.
Говоря выше о роли информационных процессов в сис темах управления, мы упоминали о каналах передачи «ос ведомительной» информации, т. е. о линиях обратной свя зи, которые имеют место во всяком сложном («нелапласовском») процессе управления. Понятие обратной связи является плодотворным не только для анализа (и синтеза) систем управления, но, как мы видели, и для установления взаимосвязи между информацией и причинностью, — оно необходимо в анализе причинных зависимостей в сложных системах управления, начиная от исследования дея тельности организмов живой природы и вплоть до изу чения некоторых явлений в человеческом обществе, а так же для конструктивной деятельности людей по созданию
64
разного рода самоорганизующихся, адаптивных и т. и. управляющих систем.
Вкибернетике обратная связь рассматривается обычно
вчисто информационном плане в отличие от историческото «прообраза» информационной обратной связи (термин «обратная связь» возник в радиотехнике), имевшего энер гетическое «наполнение». Воздействие обратных связей на функционирование систем управления носит информацион ный характер. Как справедливо говорит Г. В. Бурковский, обратные связи отображают множество изменений выход ной величипы системы в множество ее же изменений за счет сигнальных воздействий, а не материально-энергети ческих. «Обратная связь есть воздействие, передающее информацию об изменении течения процесса этому же процессу»; она есть «сигпальпое воздействие выхода не которого элемента цепи прямой связи системы на пред шествующий этому выходу вход» (Г. В. Бурковский, 1970, стр. 158). Теоретическое и научно-практическое зна чение понятия обратной связи состоит в том, что теория систем с обратной связью позволяет выразить сложные,
развертывающиеся изо времени формы взаимодействия причин и следствий (в частности, обратное влияние след ствий на действующие причины) на математическом и ес тественнонаучном языке.
Обратная связь — частный случай информационной связи вообще, т. е. связи между системами (явлениями, процессами, устройствами и т. п.), возникающей при пе редаче информации от одной к другой (или при циркуля ции информации между ними). И так же, как выше мы говорили о каузальном аспекте обратной связи, можно ста вить вопрос об аналогичном аспекте информационной свя зи вообще. На этой основе некоторые отечественные фило софы (в частности, Б. С. Украинцев) развивают представ ление об информационном воздействии (информационной причинности).
Информационное воздействие — это воздействие источ ника сообщения (передаваемого по некоторому каналу связи) на адресат, способный к декодированию сообще ния. Реализуется оно благодаря сигналам, представляю щим собой изменения в физических, физиологических или иных процессах, происходящих в канале. При этом су щественны не вещественный или энергетический аспек ты сигналов, а их кодирующая («алфавитная») способ-
3 Б. В, Бирюков |
65 |
посты Хотя информационная связь всегда осуществляется при помощи некоторого физического процесса, для нее су ществен не этот процесс «сам по себе», а его способность служить для передачи некоторого разнообразия (см. ниже, гл. III). В системах современной техники сигнальностьвоз действия достигается применением специальных проце дур кодирования и декодирования, введением регулирую щих органов (клапаны, заслонки, переменные сопротив ления и т. и.), а в нейронных структурах живой природы эта сигнальность достигается введением, например, мемб ран с переменной проницаемостью (Б. С. Украинцев, 1970; Г. А. Бурковский, 1970).
Можно иметь различные мнения о том, стоит ли при менять к информационному воздействию термин «причи на» («причинное воздействие»). В статье «Причинность и информация» И. Н. Бродский (1963) отстаивает тезис о необходимости различать в причинно-следственной связи две стороны — физическую и информационную, а Б. С. Ук раинцев предлагает выделить информационное воздейст вие в особый вид причинности (причинения, вызывания) — в информационную причинность. Мы не будем обсуждать этот — фактически терминологический — вопрос, а отме тим лишь, что информационная связь, коль скоро она вы зывает изменения в поведении адресата, является, несом ненно, воздействием, «причинением». «Действие информа ционных причин заключается в том, что они как бы «отклоняют» несколько «в сторону» процесс физического причинения» (Б. С. Украинцев, 1970, стр. 195). Более того, главный результат действия «информационных причин» — формирование поведения управляемой системы (для кото рого физическое «производящее начало» является в об щем второстепенным).
Фундаментальная роль информационных воздействий в технике, живой природе и обществе общеизвестна. До статочно упомянуть о феномене самовоспроизведения жи вых организмов на базе генетической информации и по строении систем живого на основе матричного синтеза белков. Быть может, действительно имеет смысл, следуя Б. С. Украинцеву, называть «информационные причины» п р и ч и н а м и у п р а в л я ю щ и м и .
66
И. «Диффузность» сложных систем
Когда выше, в § 2, речь шла о сложных динамических системах, мы оставили в стороне один важный пункт, в ко тором различаются сложные («большие») и простые си стемы. Это — пункт, касающийся степеней «тесноты свя зей» и многообразия факторов (параметров, переменных), определяющих функционирование соответствующих си стем.
История включения в орбиту науки больших систем до статочно поучительна. Как отметил У. Росс Эшби (1959, стр. 18—19), а из отечественных исследователей — В.В. На лимов, точные науки начиная со времени Ньютона и до на чала XX в. стремились иметь дело с системами, в которых можно было выделить явления или процессы одной и той же физической природы, зависящие от небольшого числа переменных. Такие системы можно назвать «хорошо орга низованными», или простыми. «Здесь была возможна чет кая математическая постановка задач. Результаты исследо ваний оказывалось возможным представлять хорошо интер претируемыми функциональными связями, которым припи сывалась роль неких абсолютных законов природы. В тече ние более чем 200 лет экспериментаторам внушали, что единственно правильной является методология однофактор ного эксперимента» (В. В. Налимов, 1970, стр. 50). Эта методология была основана па убеждении, что исследова тель может с любой степенью точности стабилизировать все независимые переменные (факторы) исследуемой си стемы. Тогда, поочередно варьируя один за другим (и оставляя все прочие факторы фиксированными), можно устанавливать закономерности, связывающие переменные данной системы.
Эта методология в идейном плане совпадает с методо логическими установками того, развивавшегося начиная с Ф. Бэкона, направления индуктивной логики, в рамках которого — в трудах Дж. Гершеля и Дж. Ст. Милля27 — по
27 Имеются в виду книги: J. Herschel. А preliminary discourse on the study of natural philosophy. London, 1830 (русский перевод:
Дж. Гершель. Философия естествознания. Об общем характере, пользе и принципах исследования природы. СПб., 1868) и
I. S. Mill. A system of logic, raciocinative and inductive, v. 1-2. London, 1843 (русский перевод: Дж. Ст. Милль. Система логики, силлогистической и индуктивной. СПб., 1914).
67 |
3* |
лучили описание простейшие методы исследования при чинной связи. Эти методы — метод единственного сходст ва, метод единственного различия, соединенный метод сходства и различия, метод сопутствующих изменений и метод остатков — носили сугубо качественный характер и этим отличались от реального «однофакторного экспе римента» естествоиспытателя (при котором измерения варьируемых и фиксируемых параметров составляют не отъемлемую часть экспериментальной процедуры), но в методологическом отношении они полностью с ним совпа дают.
Б самом деле, методы Гершеля — Милля основываются на серии постулатов, предъявляющих к исследуемому про цессу весьма сильные требования. Предполагается, что в распоряжении имеется некоторый критерий отождествле ния событий (происходящих обычно в различное время и по существу в различных обстоятельствах); что к изучае мым явлениям мы можем подходить как к чему-то и з о
л и р о в а н н о м у |
и говорить о связи о т д е л ь н о г о |
ф а к |
||
т о р а |
(причины, |
действия) с о т д е л ь н ы м и |
же |
фак |
торами |
(т. е. можем отвлекаться от взаимного |
влияния |
факторов, от обратного воздействия следствий на причины
в ходе процесса, от того, |
что в индуктивной |
логике |
носит название с м е ш е н и я |
д е й с т в и й , и т. |
п.); что |
имеется возможность из фактически бесконечного (точнее, неопределенно большого) множества обстоятельств осу ществления данного конкретного процесса выделить неко торую конечную и для науки обозримую область определя ющих его факторов (или его следствий); что, выявляя круг возможных факторов, мы не упускаем ни одного су щественного; что мы в состоянии исключить влияние явле ния «множественности причин» и т. д. и т. п. (Б. Бирю ков, В. Швырев, А. Суханов, 1964, стр. 422). Нетрудно за метить, что эти постулаты в точности совпадают с теми уп рощающими предположениями, которые лежат в основе «однофакторного эксперимента» (10. II. Адлер, Е. В. Мар кова, 1970, стр. 16).
Известно, что «однофакторный эксперимент» в опреде ленных рамках может использоваться при чисто киберне тической постановке задачи оптимизации процесса (тех нологического процесса на производстве, химической реакции и т. и.). В этом случае процедура состоит в ста билизации всех факторов, кроме одного, варьируемого,
68
оптимальное значение которого (так называемый локаль ный оптимум) и находится. Далее, зафиксировав найденное оптимальное значение данного фактора, варьируіют вто рым фактором (при постоянстве всех остальных) и так да лее, пока процедура не завершится определением опти мальных значений всех факторов. Их совокупность и ха
рактеризует |
оптимальные условия |
протекания |
процесса |
|||
в целом. |
каком основании здесь |
предполагается, |
что |
|||
Но |
на |
|||||
«подлинная» оптимизация процесса |
достижима |
(только) |
||||
на пути р а с ч л е н е н и я |
его на отдельные факторы — на |
|||||
чисто |
«аналитическом» |
пути и з о л и р о в а н н о г о |
рас |
смотрения каждого параметра, участвующего в едином процессе!? Очевидно, что поиск локальных оптимумов по методике «однофакторпого эксперимента» обладает изъя ном п р и н ц и п и а л ь н о г о характера: он основан на пренебрежении тем обстоятельством, что при варьирова нии последовательно лишь одним обстоятельством другие
факторы могут |
(вопреки расчетам исследователя) также |
|
изменяться, т. |
е. игнорирует |
феномен в з а и м о д е й с т |
в ия явлений; |
при этом под |
взаимодействием явлений |
(факторов) понимается ситуация, когда проявление одно го фактора зависит от того, на каком уровне интенсивно сти находится другой (другие) фактор.
На основе такого рода соображений, начиная с 20-х го дов нашего столетия, был поставлен вопрос об исследо ваниях процессов при совместном рассмотрении различных факторов — о многофакторном исследовании. Это были ра боты создателя современной математической статистики Р. Фишера, который показал эффективность одновремен ного варьирования всеми факторами в эксперименте. Впервые открылась возможность определять совместный вклад групп факторов в изучаемый процесс и количе ственно оценивать само взаимодействие между факторами, определять погрешность эксперимента и т. д. Дальнейшее развитие методологии эксперимента привело в начале 50-х годов, т. е. уже после оформления кибернетики, к появлению нового, непосредственно связанного с оптими зацией (поиском оптимальных условий), направления в математической теории эксперимента — теории экстре мального эксперимента (Ю. II. Адлер, Е. В. Маркова, 1970; Ю. П. Адлер, Е. В. Маркова, Ю. В. Грановский, 1971). В последней из упомянутых книг следующим образом
69