Файл: Приц, А. К. Принцип стационарных состояний открытых систем и динамика популяций.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 30.10.2024
Просмотров: 40
Скачиваний: 0
т
Q o = < e > = l i m - A - J e W d t .
( 1- 2- 1)
T-i-oo 1 о
Исходя из молекулярной теории строения вещества, статис тическая |физи«а позволяет вычислять равновесные значения внутренних параметров, термодинамика же определяет эти зна чения параметров экспериментально.
Вторым исходным положением термодинамики является ут верждение, что все равновесные внутренние параметры являют ся функциями внешних параметров и температуры.
:В связи е тем, что энергия системы является ее внутренним параметром, то она является функцией внешних параметров и температуры. Поэтому можно сказать, что все внутренние пара метры являются функциями внешних параметров и энергии си стемы. Эта формулировка второго исходного положения термо динамики является более верной, так как она не содержит в себе понятия температуры системы.
Второе исходное положение '(в первой формулировке) термо динамики связано с понятием существования температуры си стемы.
Опыт показывает, что если две системы, находящиеся в раз новесном состоянии, привести в состояние теплообмена (тепло обменом называется обмен энергией при неизменных внешних параметрах) друг е другом, то, независимо от различия или ра венства внешних параметров, равновесное состояние не меняется или нарушается, и только спустя некоторый промежуток време ни, называемый временем релаксации, системы придут в равно весное состояние. Если после этого системы изолировать друг от друга и вновь соединить, то равновесие в них не изменится. Из этого делается вывод о существовании, кроме внешних парамет ров, еще одной величины, определяющей состояние системы — температуры. При этом значения температуры при теплообмене выравниваются и становятся одинаковыми для всех контактиру ющих между собой систем.
Этот параметр — температура — выражает состояние внут реннего движения равновесной системы и имеет одно и то же значение у всех макроскопических частей равновесной системы.
Для установления, какая температура 'больше .и какая мень ше, вводится дополнительное условие: считается, что при сооб щении телу энергии при постоянных внешних параметрах, его температура повышается. Или, если при тепловом контакте двух тел энергия переходит от одного тела к другому, то говорят, что температура тела, отдающего энергию, выше, чем получающего (можно было 'бы и наоборот). Это дополнительное условие поз воляет рассматривать энергию системы как монотонно возра стающую функцию температуры.
9
Основываясь на этих положениях, в термодинамике были сформулированы ее основные законы: закон сохранения и пре вращения энергии, закон возрастания энтропии в изолирован ных системах и закон о недостижимости абсолютного нуля тем ператур.
возникает закономерный вопрос, являются ли живые систе мы системами, которые можно изучать методами обычной тер модинамики необратимых процессов? Можно ли характеризо вать состояние живой системы с помощью термодинамических функций: внутренней энергии Е, свободной энергии F, энтропииS и т. д.? Или с помощью аналогов этих функций?
Исходя из определения живой системы видно, что она не удовлетворяет ни одному из исходных положений термодинами ки. Действительно, она не является изолированной и никогда не приходит в состояние равновесия. Живая система не удовлетво ряет принципу транзитивности, включенному в понятие темпе ратуры.
‘Следовательно, живая система не удовлетворяет исходным положениям термодинамики в том виде, в котором они сформу лированы, и для применения методов термодинамики к живым системам требуется либо изменить сами методы, либо исходные положения.
Если считать неравновесное состояние живой системы стаци онарным, то живую систему можно характеризовать с помощью макроскопических параметров. В стационарном состоянии, точно так же, как и в состоянии неполного равновесия, неравновесная система может характеризоваться значениями макроскопиче ских термодинамических параметров. Для этого необходимо по стулировать квазистационарность неравновесной системы.
§ 3. Энтропия и информация
Все управляемые системы или отдельные элементы управля емых систем обмениваются между собой сигналами-наборами сведений о своем состоянии и состоянии окружающей среды. Пе редача сигналов может'быть задержана в запоминающих устрой ствах, что позволяет их разделить не только во времени, но и в пространстве. 'Говорят, что системы обмениваются между собой информацией. Что же такое информация, каково ее математиче ское выражение?
Главным свойством случайных событий является отсутствие полной уверенности в их наступлении. Событие может произойти или не произойти. Но до опыта существует неопределенность осуществления этого события.
За меру неопределенности случайного объекта х, который может иметь конечное множество состояний Xi, х%, . . . , хп осу
10
ществляемых с вероятностями ри р2 , . . - , р п , берется в соответ ствии с К. Шенноном [33], функция:
П
Sm{X) = Sn,(Pi «!•••' Рп) = — 2 P i ln Pi ■ ( ! —3— 1) i—i
Этот функционал Sm{X) носит название энтропии случайного объекта х. Сама шенноновская информационная энтропия пред ставляет собою среднее значение отрицательного логарифма ве роятности
Shi--- |
( 1 - 3 - 2 ) |
Энтропия
п
(1—3—3)
г= 1
если одно из значений Pi равно единице '(все остальные, следова тельно, равны нулю). Это соответствует отсутствию неопреде
ленности.
Максимальное значение энтропия Sm достигает, когда все ве роятности pi равны друг другу, т. е.
р 1— Рг— •■•— Рп —
Поэтому
Sm Ln п. |
( 1 - 3 - 4 ) |
Энтропия объекта XY, состоящего из двух независимых случай ных объектов X и У, является суммой их энтропий:
Sm= S in(X, Y ) = S m( X ) + S m(Y). |
( 1 - 3 - 5 ) |
Если же объект XY состоит из случайных объектов X и У и меж ду этими объектами существует статистическая зависимость, то энтропия случайного объекта XY является суммой энтропии Sui(X) одного объекта и условной энтропии 5Ш.^(У) другого:
Sm(X, |
Y ) = S IB( X ) + S nBe(Y), |
( 1 - 3 - 6 ) |
Sm(X, |
Y ) = S m( Y ) + S my(X). |
( 1 - 3 - 7 ) |
Условной энтропией случайных объектов X и У называется энт |
||
ропия S.x-(y) или SV(X), когда один из объектов находится в |
||
•определенном состоянии. |
|
соотноше |
При независимости объектов X и У друг от друга |
ния (1—3—6) и (1—3—7) переходят в (1—3—б).
Если |
к множеству состояний добавить любое число невоз |
|
можных |
состояний, то энтропия объекта не изменится: |
|
Sm (Pu Pi 1 • • • , Рп) == Sm,(pi , |
, Рп, 0 , . . . , 0) . (1 3 8) |
11
iB случае, если объект обладает непрерывным множествам со стояний х с вероятностями р(х), то вместо (1—3— 1) можно вы брать следующее выражение:
СО
(1—3—9)
—оо
Информация рассматривается лишь как уменьшение энтро пии и возникновение отрицательной энтропии:
(1—3— 10)
§4. Термодинамическая энтропия как функция состояния. Связь информационной энтропии и термодинамической
Начиная с 1948 г., когда К. Шенноном было сформулировано понятие информационной энтропии, явившейся основой для тео рии информации, сходство энтропии Шеннона и энтропии Больц мана-Тиббса (известной значительно раньше из статистической физики), являлось и является предметом большого внимания ряда исследователей.
Л. Бриллюэн [34, 35] провел наиболее полное исследование связи .между этими двумя энтропиями и сформулировал прин цип их взаимного соответствия, известный в настоящее время как негэнтропийный принцип информации. Для установления этого соответствия перейдем к хорошо известной категории ста тистической термодинамики.
Для нахождения связи между энтропией и состоянием систе мы, вернемся вновь к определению состояния системы. В моле кулярной теории, вместо ограниченного числа параметров, ха рактеризующих состояние системы, учитываются состояния от дельных молекул, из которых состоят элементы системы, и, сле довательно, вся система. .Если отдельная молекула имеет f сте пеней свободы, то для характеристики всей системы, состоящей из N молекул, необходимо знание 2/N молекулярных параметров. (/N координат и /N импульсов). .Поэтому термодинамика и мо лекулярная теория совершенно по разному подходят к опреде лению одного и того же состояния. Состояние, определяемое с помощью термодинамических параметров (давление, темпера тура, объем и т. д.), называется макросостоянием. Состояние же, заданное с помощью молекулярных параметров, называется микросостоянием.
Вследствии того, что молекулярным процессам присуща опре деленная хаотичность, микроскопические состояния характери зуются той или иной вероятностью их наступления. Следователь-
12
но, и макроскопические состояния также будут характеризо ваться определенной вероятностью их осуществления.
Связь между вероятностями микро- и макросостояний впер вые установлена Л. Больцманом [36]. При этом вовсе нет необ- - ходимости рассматривать только равновесные системы, но мож но рассматривать и неравновесные, если процессы изменения со стояния в них протекают достаточно медленно.
Одной из основных функций, характеризующих состояние си стемы в термодинамике, является энтропия системы S. 'Найдем связь между энтропией системы S, определяемой в термодина мике, и энтропией Sm, определяемой в теории информации. Для этого постараемся воспользоваться установленной связью меж ду молекулярной теорией, где применяются статистические ме тоды, и термодинамическим определением энтропии.
Больцман разработал метод ячеек. Пусть число молекул в си стеме равно N. Разобьем все пространство, в котором находятся молекулы системы, на элементарные ячейки. Так как состояние отдельной молекулы определяется заданием координат и им пульсов, то ячейка Больцмана представляется в виде элементар ного объема в пространстве координат и импульсов.
На ячейку накладываются два условия: объем ячейки дол жен быть достаточно мал, чтобы все находящиеся в ячейке мо лекулы характеризовались одними и теми же координатами и им пульсами, а также чтобы в каждой ячейке находилось достаточ но большое число частиц.
Пусть объем элементарных ячеек соответственно равен Аь А2, . . . , А и а суммарный объем равен А. Тогда вероятность того, что в первой ячейке будет находиться одна молекула, будет рав
Ai |
Ai |
\2 |
- «1 |
/ Ai |
\» |
т. к. рас |
на — , две молекулы |
— |
/ |
молекул ^ - у - |
J |
сматриваются независимые и одинаковые молекулы. Аналогич но можно найти вероятность того, что во второй ячейке находит ся п2 молекул, в третьей —>п3 молекул и т. д.
Если считать распределение молекул по ячейкам состоящим из ряда независимых событий, то вероятность одновременного нахождения в первой ячейке п молекул, во второй п2 молекул, в третьей — п3 молекул и т.. д., можно выразить формулой:
W = ( - г Г - ( - S - Г - ( - т Г - |
■ (1 -4 -1 ) |
Выражение (1—4— 1) представляет вероятность |
распределе |
ния молекул по состояниям, что дает вероятность определенного микросостояния.
'Перейдем теперь к нахождению вероятности макросостояния. Каждому микросостоянию соответствует только одно макро состояние, но каждому макросостоянию соответствует большое.
13