Файл: Кравченко Р.Г. Основы кибернетики учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 106

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

дением опытов. Из закона больших чисел Бернулли следует, что чем больше произведено опытов, тем большая вероятность отно­ сительной повторяемости каждого результата, мало отличаю­ щейся от вероятности этого результата.

Напомним, что вероятность возникновения какого-то случай­ ного явления находится в пределе 0—1 и устанавливается соот­ ношением числа благоприятных случаев к числу возможных случаев. Чем больше вероятность появления случайного явле­ ния, тем точнее, определеннее можно предсказать, произойдет ли случайное явление.

В таком случае неопределенность в принятии решения зави­ сит, во-первых, от числа возможных результатов, во-вторых,— от распределения вероятности. Неопределенность в принятии решения (в данном случае трудность определения последующего состояния системы) меньше при выборе из меньшего числа воз­ можностей и постепенно возрастает с увеличением числа воз­ можностей.

Например, необходимо решить, развивать систему мелиора­ ции или нет, т. е. выбрать из минимального числа возможностей две. Это решение будет положительным, если будет получена прибыль, или отрицательным, если прибыли не будет.

Неопределенность в принятии решения в значительной сте­ пени зависит от распределения вероятности. Причем зависимость между вероятностью появления определенного состояния си­ стемы и неопределенностью в принятии решения обратно про­ порциональна. Если какое-то состояние наступает с равной ве­ роятностью, то неопределенность максимальна. Если вероят­ ность равна единице, то неопределенность равна нулю.

Преобладающее большинство информационных процессов в сложных экономических системах имеет вероятностный (сто­ хастический) характер и поэтому содержит неопределенность. Информация способна устранять или уменьшать неопределен­ ность. Поэтому укажем, как измерить эту неопределенность.

Количественная оценка неопределенности i-ro результата

обозначается символом Н. Она является

функцией вероятно­

сти рр.

 

 

где Pi — вероятность,

что будет получен г-й результат из п воз-

 

П

 

можных результатов

и что 2 Р ; = 1- Это

утверждает опреде-

 

i=i

 

ленно, что какой-то результат обязательно должен быть получен. Для того чтобы эта функция могла стать количественной оценкой неопределенности результата, она должна удовлетво­

рять следующим требованиям.

1.Если t'-й результат определенный, то неопределенност

этого результата равна нулю, т. е. должно быть применимо

Ф ) = о .

80


2. Чем больше вероятность результата, тем меньше его не­ определенность.

Пусть pi и pj являются вероятностью разных результатов и пусть pi<.pj, тогда должно быть применимо

f(Pi)<f(Pj)•

3. Неопределенность результата, состоящего из двух взаимно независимых результатов с вероятностью pi и р3, равна сумме неопределенности отдельных результатов. В этом случае должно быть применимо

f(PrP,) = f(Pi) + f(Pi)-

Количественная оценка неопределенности (Я) может быть распространена на множество возможных результатов. Это уве­ личит число требований к Я.

4.Я является функцией всех вероятностей возможных ре­ зультатов.

5.Я приобретает максимальное значение именно тогда, ког­ да все вероятности одинаковы. Это требование следует из того, что неопределенность решения возрастает одновременно с чис­ лом возможных результатов и равномерностью распределения вероятности между ними.

Если предположить, что каждое из п явлений появляется све-

П

роятностью ри р%,...,

рп, причем

2 Р / = 1>

то выражение

 

 

i= 1

 

 

п

 

 

 

Н = — 2 Pi logo Р(i)

 

 

1=1

 

 

удовлетворяет всем

требованиям,

которые

были предъявлены

к количественной оценке неопределенности. Если п явлений представляет п возможных результатов какого-то опыта, то функция Я согласно приведенному выражению отражает с р еднюю э н т р о п и ю опыта.

Измерение энтропии, неопределенности системы, информа­ ционного сообщения. Общепринято единицей количества инфор­ мации считать один бит. Единица измерения информации «бит» представляет собой одно из двух возможных состояний носи­ теля информации, передающих сообщение об одном из двух равновероятных состояний системы. Один бит (двоичный раз­ ряд) устраняет неопределенность решения при двух возмож­ ностях, имеющих одинаковые вероятности.

Известно, что максимальная информационная емкость си­ стемы выражается как Я = 1одЫ. Примем за основание лога­ рифма число два (log2 2). Это удобно главным образом потому, что наиболее простая форма решения представляет собой выбор между двумя возможностями (0 или 1; да или нет).

4 Р. Г. Кравченко, А. Г. Скрипка

81


Тогда для систем, содержащих п элементов, с двумя ус­ тойчивыми состояниями максимальное разнообразие (информа­ ционная емкость) будет составлять

# = log2 2" = п бит.

Если рассмотреть эту систему в динамике, в процессе пере­ хода от t-ro состояния к /-му, с какой-то вероятностью рц, то тогда при рц = pi

N

Я = — Hftlogp,.,

1=1

N

 

 

 

где 2

Р/ = 1 •

 

 

i=l

выражение соответствует энтропии системы,

или мере

Это

информации о состоянии системы,

недостающей для

полного

устранения неопределенности в поведении системы.

энтропия

В том случае, если все состояния

равновероятны,

достигает максимума и становится

равной мере разнообразия

(введенной Р. Хартли):

 

 

 

N

 

 

H = — '2lpl\ogpi = \ogN i= 1

при р{ = р = — .

Иными словами, выражение указывает на максимальную информационную емкость системы, или на то, какое количество информации необходимо для устранения неопределенности си­ стемы (упорядочения, достижения организованности в системе).

Таким образом, энтропия может рассматриваться так же, как количественная характеристика организованности систем. Мера / информации, устраняющей неорганизованность системы, и энтропия этой системы находятся в следующей зависимости:

N

1— — н = 2 p t iogp(-. {=1

Минус в формуле перед Н не означает, что энтропия явля­ ется отрицательной величиной. Вероятность pi находится в пре­ делах 0 < p i < l 1, и логарифм такого числа всегда отрицатель­ ный. Поэтому величина результата будет положительной.

Проиллюстрируем сказанное следующим примером. На ос­ новании многолетних метеорологических данных установлено, что в данной местности в первой декаде апреля число дожд­ ливых и солнечных дней равно; следовательно, будет ли на сле­ дующий день дождь или солнце равновероятно (при условии, что нет зафиксированной информации о погоде в уже прошед­ ших днях первой декады). Следовательно, вероятность той или

иной погоды — Pi = ~y - Тогда количество информации, необ­

82


ходимое для принятия решения о сельскохозяйственных рабо­ тах на следующий день, можно выразить через энтропию дан­

ного события (неопределенность) при

р ,= — , at = 1, 2:

Н = — (р1log2 р1+ р2 log2 р2) =

—(y

1о§2 у + у 1°§ 2 -у ) =

= — log2 у = (log31 —log2 2) =

—log21 + log2 2 = 0 + 1 = 1 бит.

Энтропия имеет в данном случае величину в 1 бит. Следова­ тельно, информация, необходимая для устранения этой неопре­ деленности, должна достигнуть величины в 1 бит.

Рассмотрим важнейшие особенности энтропии, вытекающие из требований, предъявляемых к ней как мере неопределенности.

1.Энтропия — число положительное (в крайнем предельном случае равно нулю).

2.Энтропия определенного явления i приближается к нулю, если вероятность p i приближается к единице.

3.Энтропия равна нулю, если данное явление однозначно определенное.

4.Максимум энтропии соответствует наибольшей неопреде­ ленности, т. е. равенству вероятностей всех возможных явлений.

Тогда Ятах = loga n бит, где п — число явлений.

5. Энтропия сложного опыта Я (a, р), в котором важен по­ рядок результата и опыты а и р независимы, равна сумме энт­ ропий отдельных опытов: Я(а, р) = Я (а )+ Я (р ).

Количество информации, или информационное содержание принятого сообщения (I), получают как разность между неоп­ ределенностью у принимающего до принятия этого сообщения (Н) и неопределенностью после принятия ( H i) : 1 = Я — Я4.

Для выражения степени информированности принимающего

сообщения используется зависимость:

 

I

Нтах Hi

>

1отн —

 

■"max

 

где Ящах — максимальная энтропия при pt = — .

Для определения процента принятой до сих пор информации получающим может быть использован показатель

/о т н - - 1 0 0 ( % ) .

** т а х

Процесс устранения неопределенности и роста информиро­ ванности покажем на следующем примере. Для удобства обоз­ рения сведем все результативные данные в табл. 4.

Имеется пять вариантов различных схем внесения удобре­ ний с различными дозировками отдельных видов минеральных удобрений. Подбор осуществлялся таким образом, чтобы каж-

4*

83


p i

Сообщение

1

2

3

4

5

Моменты

i

Максимальная

0.2

0,2

0,2 0,2

0,2

 

неопределен­

 

 

 

 

2

ность

0.2

0,4

0,2

0,2

Данные с уче-

 

том собствен­

 

 

 

 

 

ного опыта

 

 

 

 

 

Сообщения

 

 

 

 

офактическом

состоянии

3

Первое

0,2

0,4

0,2

0,2

4

Второе

0,4

0,3

0,3

5

Третье

0,7

0,3

6

Четвертое

1

 

 

 

 

 

 

 

 

Т а б л и ц а

4

Разнооб­

 

03

 

 

 

 

*

 

О

 

разие

 

Я

 

 

а .

* £

 

 

 

 

 

СО

 

 

 

 

 

 

я *

 

количество (п)

единица измерения, бит

Энтропия ( Н )

Информационное о д ние сообщения (/)

Степень информиров ности (70тн)

П ринятая информац к общей информацис

емкости процесса, %

5

2,322

2,322

0

0

0

4

2

1,922

0,4

0,17

17

4

2

1,922

0

0,17

17

3

1,586

1,571

0,35

0,32

32

2

1

0,881

0,69

0,60

60

1

0

0

0,881

1

100

дый из этих вариантов в определенных, но различных условиях обеспечивал высокую урожайность пшеницы, т. е. для конкрет­ ных условий каждый из этих вариантов был оптимальным, наи­ лучшим. Предстоит рекомендовать какой-то из этих вариантов для внесения удобрения под пшеницу в определенной зоне. Ка­ кой из них будет рекомендован?

В первый момент лицо, которое должно принять решение о выборе схемы и доз внесения удобрений, знает только то, что удобрение будет вноситься под пшеницу и что каждый из рас­ сматриваемых вариантов отобран как оптимальный для извест­ ных условий. Так как пока неизвестны условия, в которых бу­ дет высеваться пшеница, то каждый из пяти вариантов с рав­ ной вероятностью может быть рекомендован как наиболее

соответствующий.

 

 

 

^

Вероятность избрания каждого варианта составляет pt = - =

п

5

5

\

5

= 0,2 (напомним требование 2 Р ;= К

2 Р г =

2

0,2=1 .

 

£=1

£=1

£=1

/

 

Разнообразие, определенное числом вариантов, равно 5. Так как наибольшая неопределенность соответствует максимальной мере разнообразия, то ее максимальная информационная ем­ кость равна lg5 = 2,322 бит информации.

Наибольшей неопределенности, т. е. равенству вероятностей

всех возможных явлений,

соответствует максимум энтропии:

Ятах =

N

2 P i log2 Pi = log2 N\

 

i—1

log2W = log2-5= 2,322 бит.

84