ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 29.02.2024
Просмотров: 326
Скачиваний: 2
стоты математических средств) простых же объектов — материаль ных точек, идеальной жидкости, абсолютно твердого тела и т. п. Вы делим два принципа динамических способов описания: 1) основное уравнение движения, выражающее физический закон; 2) определен ные начальные условия. Предполагается, что знание основных физи ческих законов некоторой материальной системы и строгое и точное задание ее начальных условий в определенный момент времени поз воляют полностью и исчерпывающе описать (теоретически репрезен тировать) все изменения этой системы, включая ее прошлое и буду щее. При этом динамика рассматриваемой системы не приводит к ка чественным преобразованиям; происходит непрерывное развертыва ние форм лишь в количественном плане.
Ориентацию на простоту мира и простоту его описания можно рас сматривать в контексте концепции детерминизма, которая в методоло гической культуре этого периода занимает ведущее место, особенно в лапласовской его версии. Известно, что научные истоки детерминиз ма находятся прежде всего в астрономии, а философские — уже в кон цепции Демокрита и даже еще ранее в древней мифологии. Эта кон цепция сама становится ко второй половине XVIII в. наиболее простой и интеллигибельной моделью. Простоту, наглядность ей придавала ориентация на механику как первую эффективную физическую тео рию. В рамках тогдашнего детерминизма все связи и отношения ста рались рассматривать сквозь призму механики, т. е. имеющие строго однозначный характер. Неоднозначность и неопределенность в связях и отношениях, вообще говоря, допускалась, но истолковывалась как неполное выражение знаний об исследуемых объектах, лишь как под ход к истине, либо как результат некорректной постановки задачи. Од нозначность и необходимость почти не различались. Поэтому среди ди намических способов описания на первый план выдвигаются жесткодетерминированные способы описания, в которых и предполагается возможность расчета, вычисления однозначных предсказаний поведе ния объектов в соответствии с принципами лапласовского детерминиз ма. Именно определенность, упорядоченность, закономерность миро устройства и логическая последовательность, системность его описа ния, а также однозначная предсказуемость его динамики — все это со звучно с упоминавшимися выше идеалами простоты в ориентации на учного дискурса. А что же со сложностью? Каков ее статус?
Если ответить кратко, то ее считали недоступной, для познающе го субъекта. При этом чаще других выделяли две причины. Во-пер
вых, это чрезмерно большое количество элементов, составляющих изучаемый объект; во-вторых, недостаток предварительной инфор мации об этом объекте. Сложность в таких ситуациях либо игнориро вали (старались не замечать), откладывая ее исследование на более позднее время, когда станут более совершенными средства исследо вания (например, математический аппарат, экспериментальная тех ника и т. п.), либо считали, что сложность такого вида вообще не по знаваема, непостижима. Более умеренная позиция выглядит так: сложность отражает неполноту знания некоторого числа перемен ных, но при этом не было сомнения в существовании простых зако нов, связывающих эти переменные.
В этой связи весьма показательна эволюция представлений о слу чайности, так как это понятие часто переплетается с понятием слож ности. Как и сложность, случайность в научном дискурсе этого перио да, игнорировали, либо чрезмерно принижали ее онтологический и эпистемологический статус. Исследователи указывали на то, что случайность слишком сложна, чтобы быть научно (т. е. рационально) постижимой. Хотя традиционно в этот период случайность интерпре тировалась с субъективистских позиций, однако предпосылки объек тивного толкования случайности можно найти уже у Эмпедокла. На пример, Б. Рассел пишет об этом так: «Эмпедокл рассматривал ход вещей как регулируемый скорее случайностью и необходимостью, чем целью. В этом отношении его философия была более научной, чем философия Парменида, Платона и Аристотеля»6.
Второй специфический этап на пути освоения наукой феномена сложности (и случайности) связан, во-первых, с формированием ста тистической физики (кинетическая теория газов, статистическая ме ханика) и, во-вторых, со становлением и развитием кибернетики,
атакже примыкающих к ней теории информации, теории систем
ит. п. Рассмотрим сначала первую связь и особенности тех измене ний методологической культуры, которые произошли при этом.
Ограниченность доминировавших ранее классических воззрений
на случайность и классических способов ее описания стали заметны ми при построении кинетической теории газов как специфической физической теории. Однако становление статистических представ лений в физике как «работающих» физических идей связано преж де всего с именами Р. Клаузиуса, Д. Максвелла, Л. Больцмана, У. Гиббса. Разрабатывая кинетическую теорию газов, рассматривая газ как сложный объект, состоящий («сложенный») из огромнейшего
числа частиц, Клаузиус понял, что прямыми методами механики эту задачу решить нельзя, что для этих исследований нужно видоизме нение методов. Именно об этом говорит введенное им понятие «сред них» при характеристике состояний движения молекул газа. Это да вало возможность перейти от механики систем частиц к исследова нию физического состояния систем, образованных из огромного чис ла молекул. По словам Максвелла, главная заслуга Клаузиуса «за ключалась в том, что он открыл новую область математической фи зики, показав, каким образом можно математически трактовать дви жущиеся системы бесчисленного количества молекул»7. Методоло гически оценка нововведений Клаузиуса крайне важна. Имеем ли мы здесь дело только с огрублением методов механики или же с зарож дением существенно новых методов и способов описания?
Д. Максвелл, по-видимому, первый расценил это видоизменение методов как имеющее не просто вспомогательное, а принципиальное значение. Он ясно осознал, что в ходе разработки молекулярно-кине тической теории газов происходит переход от строго динамических методов механики и жестко-детерминистских способов описания к новым вероятностно-статистическим способам описания.
Развивая нововведения Клаузиуса, Максвелл перешел от пред ставлений о средних значениях величин, характеризующих движение молекул в макросистемах, к представлениям о вероятностных рас пределениях значений этих величин. Для отображения свойств и за кономерностей материальных систем стало использоваться понятие вероятностного распределения — оно является центральным в мно гочисленных и разнообразных приложениях теории вероятности. Иными словами, здесь имеет место тенденция к точному описанию больших систем, состоящих из элементов, ведущих себя хаотично.
Одной из первых физико-теоретических моделей, строго и точно описывающих случайность (случайные, стохастические процессы в физическом мире), как раз и явилась модель идеального газа и свя занная с ней функция распределения, которая становится ядром пер вых вероятностно-статистических способов описания.
В молекулярно-кинетической теории, как известно, допускались два типа законов — динамические и статистические. При этом пред полагалось, что каждая отдельная молекула, как и вся масса газа, подчиняется динамическим законам классической механики. Вмес те с тем микросостояние газа в любой данный момент времени не зависит от его микросостояния в начальный момент времени. На это
еще указывал сам Л. Больцман8. Исходя из этих предположений, Больцман разработал статистическую версию второго начала тер модинамики и вывел важную формулу, связывающую энтропию за мкнутой системы с вероятностью данного ее состояния. Энтропия же, как известно, — это величина, выражающая степень неупоря доченности системы. Связывая энтропию с вероятностью, Больц ман считал, что термодинамическому равновесию системы соответ ствует максимум вероятности данного состояния. Он достаточно четко поставил проблему соотношения между законами, описыва ющими поведение отдельных частиц, и законами, описывающими поведение большой их совокупности, как проблему методологиче ского характера. Уже в его работах подчеркивалась принципиаль ная невыводимость статистических законов движения молекул га за из законов классической механики, которым подчинено движе ние каждой отдельной молекулы. Л. Больцман сформулировал по стулаты (например, принцип эргодичности9), выполнение которых обеспечивало возникновение статистической закономерности на фоне индивидуальных движений отдельных молекул по динамичес ким законам классической механики. Тем самым методологическая культура на данном этапе освоения наукой случайности (и сложно сти) заметно обогатилась новыми средствами, изменившими преж нюю парадигму.
Последующие преобразования в физической картине мира, свя занные с формированием СТО и квантовой механикой, не внесли ра дикальных изменений в методологическую культуру освоения наукой сложности. (Хотя по отношению к квантовой механике можно отме тить такую новацию онтологического характера — интерпретацию случайности как проявления вероятностных свойств не только на ста тистическом уровне, но и на уровне — и это особенно важно — инди видуального единичного микрообъекта.). Такие изменения внесла главным образом кибернетика и связанный с ней системно-структур ный подход, породивший даже свою новую (системную) методологию. В ее рамках «сложность системы определяется числом элементов си стемы и характером связей между ними, степенью и разнообразием их взаимодействия»10. Большие, сложные системы характеризуются большим числом (десять в четвертой — десять в седьмой степени и выше) элементов и массовым случайным их взаимодействием. Это стохастические (в кибернетическом смысле), вероятностные систе мы. Поведение каждого элемента в них нельзя проследить и предска
зать полностью, но с помощью вероятностно-статистических спосо бов описания можно оценить совокупный эффект.
Однако естествознание впервые столкнулось с большими систе мами еще в молекулярно-кинетической теории и статистической тер модинамике. Затем стохастический подход к таким системам и веро ятностно-статистические способы описания утвердились в атомной физике, метеорологии, биологии и т. д. Кроме того, индуктивная ло гика и так называемая теория эксперимента11 обогатились метода ми математической статистики. Заметную роль в обогащении мето дологической культуры освоения феномена сложности сыграла ки бернетика, в предметную область которой как раз и входят большие сложные системы. Важной частью кибернетики является, как извест но, стохастическая концепция информации и управления. Кроме то го, Н. Винер указывал на связь кибернетики с новой физикой и со зданной ею вероятностной концепцией Вселенной12.
При этом кибернетика, так сказать, «дорисовывает» уже относи тельно сформировавшуюся вероятностно-статистическую картину мира, показывая условия (и отчасти механизмы) устойчивости боль ших систем, пути борьбы с рассеянием энергии и ростом хаоса в них. Помимо этого на формальном уровне информация была отождеств лена с отрицательной энтропией. А обратная связь позволяет обра щать причинность, формируя целенаправленное «поведение».
Механизм обратной связи призван сделать систему более устой чивой, надежной и эффективной. В широком смысле понятие обрат ной связи означает, что часть выходной энергии аппарата или маши ны возвращается на вход. Положительная обратная связь прибавля ется к входным сигналам и корректирует их. Термин «обратная связь» применяется также и в более узком смысле для обозначения того, что поведение объекта управляется величиной ошибки в положении объ екта по отношению к некоторой специфической цели. Механизм об ратной связи делает систему иной, повышая степень ее внутренней организованности и создавая возможность в перспективе говорить о самоорганизации.
Тем самым кибернетика внесла важный вклад и в общую теорию систем, обогатив и расширив ее математический аппарат. «При мате матическом описании достаточно сложной системы, — пишут специ алисты в этой области, — неправомерно говорить о модели вообще (как единственно приемлемой. — Р.Б.). Существует ряд моделей, каж дая из которых способна дать ответ на вполне определенный круг кон