Файл: Приц, А. К. Принцип стационарных состояний открытых систем и динамика популяций.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 30.10.2024

Просмотров: 40

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

т

Q o = < e > = l i m - A - J e W d t .

( 1- 2- 1)

T-i-oo 1 о

Исходя из молекулярной теории строения вещества, статис­ тическая |физи«а позволяет вычислять равновесные значения внутренних параметров, термодинамика же определяет эти зна­ чения параметров экспериментально.

Вторым исходным положением термодинамики является ут­ верждение, что все равновесные внутренние параметры являют­ ся функциями внешних параметров и температуры.

:В связи е тем, что энергия системы является ее внутренним параметром, то она является функцией внешних параметров и температуры. Поэтому можно сказать, что все внутренние пара­ метры являются функциями внешних параметров и энергии си­ стемы. Эта формулировка второго исходного положения термо­ динамики является более верной, так как она не содержит в себе понятия температуры системы.

Второе исходное положение '(в первой формулировке) термо­ динамики связано с понятием существования температуры си­ стемы.

Опыт показывает, что если две системы, находящиеся в раз­ новесном состоянии, привести в состояние теплообмена (тепло­ обменом называется обмен энергией при неизменных внешних параметрах) друг е другом, то, независимо от различия или ра­ венства внешних параметров, равновесное состояние не меняется или нарушается, и только спустя некоторый промежуток време­ ни, называемый временем релаксации, системы придут в равно­ весное состояние. Если после этого системы изолировать друг от друга и вновь соединить, то равновесие в них не изменится. Из этого делается вывод о существовании, кроме внешних парамет­ ров, еще одной величины, определяющей состояние системы — температуры. При этом значения температуры при теплообмене выравниваются и становятся одинаковыми для всех контактиру­ ющих между собой систем.

Этот параметр — температура — выражает состояние внут­ реннего движения равновесной системы и имеет одно и то же значение у всех макроскопических частей равновесной системы.

Для установления, какая температура 'больше .и какая мень­ ше, вводится дополнительное условие: считается, что при сооб­ щении телу энергии при постоянных внешних параметрах, его температура повышается. Или, если при тепловом контакте двух тел энергия переходит от одного тела к другому, то говорят, что температура тела, отдающего энергию, выше, чем получающего (можно было 'бы и наоборот). Это дополнительное условие поз­ воляет рассматривать энергию системы как монотонно возра­ стающую функцию температуры.

9



Основываясь на этих положениях, в термодинамике были сформулированы ее основные законы: закон сохранения и пре­ вращения энергии, закон возрастания энтропии в изолирован­ ных системах и закон о недостижимости абсолютного нуля тем­ ператур.

возникает закономерный вопрос, являются ли живые систе­ мы системами, которые можно изучать методами обычной тер­ модинамики необратимых процессов? Можно ли характеризо­ вать состояние живой системы с помощью термодинамических функций: внутренней энергии Е, свободной энергии F, энтропииS и т. д.? Или с помощью аналогов этих функций?

Исходя из определения живой системы видно, что она не удовлетворяет ни одному из исходных положений термодинами­ ки. Действительно, она не является изолированной и никогда не приходит в состояние равновесия. Живая система не удовлетво­ ряет принципу транзитивности, включенному в понятие темпе­ ратуры.

‘Следовательно, живая система не удовлетворяет исходным положениям термодинамики в том виде, в котором они сформу­ лированы, и для применения методов термодинамики к живым системам требуется либо изменить сами методы, либо исходные положения.

Если считать неравновесное состояние живой системы стаци­ онарным, то живую систему можно характеризовать с помощью макроскопических параметров. В стационарном состоянии, точно так же, как и в состоянии неполного равновесия, неравновесная система может характеризоваться значениями макроскопиче­ ских термодинамических параметров. Для этого необходимо по­ стулировать квазистационарность неравновесной системы.

§ 3. Энтропия и информация

Все управляемые системы или отдельные элементы управля­ емых систем обмениваются между собой сигналами-наборами сведений о своем состоянии и состоянии окружающей среды. Пе­ редача сигналов может'быть задержана в запоминающих устрой­ ствах, что позволяет их разделить не только во времени, но и в пространстве. 'Говорят, что системы обмениваются между собой информацией. Что же такое информация, каково ее математиче­ ское выражение?

Главным свойством случайных событий является отсутствие полной уверенности в их наступлении. Событие может произойти или не произойти. Но до опыта существует неопределенность осуществления этого события.

За меру неопределенности случайного объекта х, который может иметь конечное множество состояний Xi, х%, . . . , хп осу­

10


ществляемых с вероятностями ри р2 , . . - , р п , берется в соответ­ ствии с К. Шенноном [33], функция:

П

Sm{X) = Sn,(Pi «!•••' Рп) = — 2 P i ln Pi ■ ( ! —3— 1) i—i

Этот функционал Sm{X) носит название энтропии случайного объекта х. Сама шенноновская информационная энтропия пред­ ставляет собою среднее значение отрицательного логарифма ве­ роятности

Shi---

( 1 - 3 - 2 )

Энтропия

п

(1—3—3)

г= 1

если одно из значений Pi равно единице '(все остальные, следова­ тельно, равны нулю). Это соответствует отсутствию неопреде­

ленности.

Максимальное значение энтропия Sm достигает, когда все ве­ роятности pi равны друг другу, т. е.

р 1— Рг— •■•— Рп

Поэтому

Sm Ln п.

( 1 - 3 - 4 )

Энтропия объекта XY, состоящего из двух независимых случай­ ных объектов X и У, является суммой их энтропий:

Sm= S in(X, Y ) = S m( X ) + S m(Y).

( 1 - 3 - 5 )

Если же объект XY состоит из случайных объектов X и У и меж­ ду этими объектами существует статистическая зависимость, то энтропия случайного объекта XY является суммой энтропии Sui(X) одного объекта и условной энтропии 5Ш.^(У) другого:

Sm(X,

Y ) = S IB( X ) + S nBe(Y),

( 1 - 3 - 6 )

Sm(X,

Y ) = S m( Y ) + S my(X).

( 1 - 3 - 7 )

Условной энтропией случайных объектов X и У называется энт­

ропия S.x-(y) или SV(X), когда один из объектов находится в

•определенном состоянии.

 

соотноше­

При независимости объектов X и У друг от друга

ния (1—3—6) и (1—3—7) переходят в (1—3—б).

Если

к множеству состояний добавить любое число невоз­

можных

состояний, то энтропия объекта не изменится:

Sm (Pu Pi 1 • • • , Рп) == Sm,(pi ,

, Рп, 0 , . . . , 0) . (1 3 8)

11


iB случае, если объект обладает непрерывным множествам со­ стояний х с вероятностями р(х), то вместо (1—3— 1) можно вы­ брать следующее выражение:

СО

(1—3—9)

—оо

Информация рассматривается лишь как уменьшение энтро­ пии и возникновение отрицательной энтропии:

(1—3— 10)

§4. Термодинамическая энтропия как функция состояния. Связь информационной энтропии и термодинамической

Начиная с 1948 г., когда К. Шенноном было сформулировано понятие информационной энтропии, явившейся основой для тео­ рии информации, сходство энтропии Шеннона и энтропии Больц­ мана-Тиббса (известной значительно раньше из статистической физики), являлось и является предметом большого внимания ряда исследователей.

Л. Бриллюэн [34, 35] провел наиболее полное исследование связи .между этими двумя энтропиями и сформулировал прин­ цип их взаимного соответствия, известный в настоящее время как негэнтропийный принцип информации. Для установления этого соответствия перейдем к хорошо известной категории ста­ тистической термодинамики.

Для нахождения связи между энтропией и состоянием систе­ мы, вернемся вновь к определению состояния системы. В моле­ кулярной теории, вместо ограниченного числа параметров, ха­ рактеризующих состояние системы, учитываются состояния от­ дельных молекул, из которых состоят элементы системы, и, сле­ довательно, вся система. .Если отдельная молекула имеет f сте­ пеней свободы, то для характеристики всей системы, состоящей из N молекул, необходимо знание 2/N молекулярных параметров. (/N координат и /N импульсов). .Поэтому термодинамика и мо­ лекулярная теория совершенно по разному подходят к опреде­ лению одного и того же состояния. Состояние, определяемое с помощью термодинамических параметров (давление, темпера­ тура, объем и т. д.), называется макросостоянием. Состояние же, заданное с помощью молекулярных параметров, называется микросостоянием.

Вследствии того, что молекулярным процессам присуща опре­ деленная хаотичность, микроскопические состояния характери­ зуются той или иной вероятностью их наступления. Следователь-

12

но, и макроскопические состояния также будут характеризо­ ваться определенной вероятностью их осуществления.

Связь между вероятностями микро- и макросостояний впер­ вые установлена Л. Больцманом [36]. При этом вовсе нет необ- - ходимости рассматривать только равновесные системы, но мож­ но рассматривать и неравновесные, если процессы изменения со­ стояния в них протекают достаточно медленно.

Одной из основных функций, характеризующих состояние си­ стемы в термодинамике, является энтропия системы S. 'Найдем связь между энтропией системы S, определяемой в термодина­ мике, и энтропией Sm, определяемой в теории информации. Для этого постараемся воспользоваться установленной связью меж­ ду молекулярной теорией, где применяются статистические ме­ тоды, и термодинамическим определением энтропии.

Больцман разработал метод ячеек. Пусть число молекул в си­ стеме равно N. Разобьем все пространство, в котором находятся молекулы системы, на элементарные ячейки. Так как состояние отдельной молекулы определяется заданием координат и им­ пульсов, то ячейка Больцмана представляется в виде элементар­ ного объема в пространстве координат и импульсов.

На ячейку накладываются два условия: объем ячейки дол­ жен быть достаточно мал, чтобы все находящиеся в ячейке мо­ лекулы характеризовались одними и теми же координатами и им­ пульсами, а также чтобы в каждой ячейке находилось достаточ­ но большое число частиц.

Пусть объем элементарных ячеек соответственно равен Аь А2, . . . , А и а суммарный объем равен А. Тогда вероятность того, что в первой ячейке будет находиться одна молекула, будет рав­

Ai

Ai

\2

- «1

/ Ai

т. к. рас­

на — , две молекулы

/

молекул ^ - у -

J

сматриваются независимые и одинаковые молекулы. Аналогич­ но можно найти вероятность того, что во второй ячейке находит­ ся п2 молекул, в третьей —>п3 молекул и т. д.

Если считать распределение молекул по ячейкам состоящим из ряда независимых событий, то вероятность одновременного нахождения в первой ячейке п молекул, во второй п2 молекул, в третьей — п3 молекул и т.. д., можно выразить формулой:

W = ( - г Г - ( - S - Г - ( - т Г -

■ (1 -4 -1 )

Выражение (1—4— 1) представляет вероятность

распределе­

ния молекул по состояниям, что дает вероятность определенного микросостояния.

'Перейдем теперь к нахождению вероятности макросостояния. Каждому микросостоянию соответствует только одно макро­ состояние, но каждому макросостоянию соответствует большое.

13