Файл: Ливенцев В.В. Кибернетика горных предприятий (основные положения) учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 02.08.2024

Просмотров: 66

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

байн на участке лавы 0—80 м?» (мысленно разбиваем всю длину лавы пополам). Допустим, получаем ответ «нет». Сле­ довательно, комбайн находится на участке лавы от 80 до 160 м. Вновь мысленно делим этот участок пополам и задаем второй вопрос: «Находится ли комбайн на участке 80—120 м?». Допустим, получаем ответ «да». Задаем третий вопрос: «На­ ходится ли комбайн на участке 80—100 ж?». При получении отрицательного ответа мы совершенно определенно устанав­ ливаем, что комбайн находится на участке 100—120 м. Таким образом, сообщение о том, что комбайн находится на участке 100—120 м несет информацию в 3 бита.

Рассмотрим еще один пример.

Пример 5. Пусть добычный участок D характеризуется двумя состоя­ ниями: D1—суточный план добычи по участку выполнен; D2 —суточный план добычи по участку не выполнен. Допустим, что вероятности этих со­ стояний равны соответственно рх =0,85 и />2 =0,15.

Сообщение о том, что участок попал в состояние D 3 (план не выпол­ нен), должно нести в себе информации больше, чем сообщение о том, что

участок находится в

состоянии

D x (план выполнен). В самом деле, коли­

чество информации, заключенное в сообщении

о состоянии

D 3 , составит

 

Іфі) = — iog,/>2 = — l o g , 0,15.

 

Пользуясь табл. 1 приложения, находим

 

 

/(£>,) =

— (log2 15 logalOO) = logslOO—log215 =

 

=-6,644—3,907=2,737

бита.

 

Количество информации,

заключенное в

сообщении о

состоянии Dlt

составит

 

 

 

 

/ ( D O - — loga /7t = — log3 0,85. Пользуясь также табл. 1 приложения, находим

/(Di) = (log2 85—logjlOO) = log2100—Iog2cV5 =-6,644—6,409 = 0,235 бита.

Как видим, первое сообщение несет информации почти в 12 раз боль­ ше, чем второе. Это является вполне естественным: при получении сообще­ ния о неблагоприятном маловероятном событии (суточный план добычи по

участку не

выполнен — состояние

D 2 ) реакция руководителя производства

несомненно

сильнее,

чем

при сообщении

о более

вероятном

событии —

состоянии

D j .

 

 

 

 

 

 

 

 

 

 

 

До сих пор мы рассматривали измерение энтропии

и ин­

формации применительно к одной системе.

 

 

 

Рассмотрим две дискретные независимые друг

от

друга

системы

5

и

Т.

Система 5

имеет

п состояний: S\,

S2,

Sn

с вероятностями

ри

р2 , —,рп-

 

Система

Т

имеет m

значений:

Tu Т2,

Тт

с вероятностями

qu

Яъ - ,

Чт-

система

S

будет

Совместная

вероятность

 

 

того,

что

находиться

в

состоянии

 

а

система Т—в состоянии Гу,

определяется по формуле

 

 

 

 

 

 

 

 

 

 

 

 

 

Rij

=

Pfij-

 

 

 

(П -29)

42


Энтропия обеих систем согласно формуле Шеннона будет^

пm

Подставив в эту формулу выражение для Ry,

получим

п m

 

 

 

H(S,

Т)=-

2

2

(/W/)log(jtWy) =

 

 

 

 

 

 

 

 

 

 

 

i=l

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

m

 

 

 

n

m

 

 

 

 

 

 

 

 

 

= — 2

2

PUjlogPt—

2

S

Pt4)^ogqj

 

=

 

 

 

 

 

 

i

= l

У=1

 

 

 

i--=l y = l

 

 

 

 

 

 

 

 

=

(— />i<7i l o g A - P i ^ l o g / ? ! — .

. .

- A ^ l o g / ? , —

 

 

 

 

 

- ^ i l 0 g /

? 2 - ^ 2 l 0 g / »

2 —

• —AWmlogft —

 

 

 

• •

• - A , 7 m

log/>,,)+( - Pift

log

ft-prfi

log ft —

 

 

 

 

 

- •

• — / W i l o g f t — A f t l o g f t —

 

Asftlogft—

 

 

 

 

 

- •

- P « ^ 2 log ^

-

• • -

P A

log qm)

=

 

 

=

[

+

 

 

• +9m)Pl l O g ^ i -

+

 

-

••+?»)AilogA,] + [— (A

+ ^

2 +

 

• •

+Pn)

ft log ft

-

 

 

 

 

— . . . — ( Л + Л +

 

• • + / ? „ ) ? m l o g ? J .

 

 

 

В

связи

 

с

тем,

что

по

условию

Р 1 + Р 2 +

• • • п

~

1;

+• • • + 9m= 1. можно записать

H(S,T) = -pi\ogpl

- .

.—pn\°gPn

- f t l o g f t -

. . .

- ^ m l o g ^ m .

 

Отсюда получаем

 

 

 

и

Л (5, Л = - 2 Л

l o g / 7 , - 2

ft-log

ft,

("-SI)

« = 1

у=1

 

 

 

Правая часть данной формулы представляет собой алге­ браическую сумму энтропии систем S и Т. Окончательно имеем

H{S, T)=H(S)+H(T).

(11.32)

43


Совместная энтропия двух независимых систем равна сум­

ме энтропии этих

систем. Данное свойство энтропии назы­

вается аддитивностью

 

 

Распространяя принцип аддитивности энтропии

(информа­

ции) на п независимых систем, можно записать

 

Н(Аи

А2

Л „ ) = 2 Я Иі)-

(11.33)

 

 

і = 1

 

Проиллюстрируем принцип аддитивности энтропии систе­ мы, в которой состояния отдельных подсистем являются неза­ висимыми друг от друга.

Пример 6. Рассмотрим две шахты, состояния которых и соответствую­ щие им вероятности заданы табл. 3.

 

 

 

 

 

Т а б л и ц а

3

 

 

 

 

 

Вероятности

состояний

Возможные состояния

шахты

шахта А

шахта

Б

 

 

 

 

 

Суточный

план

добычи

выполнен

0,9

0,8

 

Суточный

план

добычи

не выполнен

0,1

0,2

 

Система,

состоящая из

обеих

шахт, будет

характеризоваться

табл. 4.

 

 

 

 

 

Т а б л и ц а

4

Возможные состояния

системы

Совместная

вероят­

ность состояния

 

 

 

 

 

 

 

План по шахтам А и Б выполнен

 

0,9.0,8= =0,72

 

План по шахте А выполнен, по шахте Б не вы­

0 , 9 - 0 , 2 = і 0 , 1 8

 

полнен

 

 

 

 

 

План по шахте А не выполнен, по шахте Б вы­

0,1-0,8= =0,08

 

полнен

 

 

 

 

 

План по шахтам А и Б не выполнен

0,1-0,2= = 0,02

 

Энтропия системы составит:

Н(А, Б) = —0,72 logj0,72—0,18 log, 0,18—

—0,08 logs 0,08—0,02 log, 0,02.

i Величина, характеризующая весь объект в целом, является аддитив­ ной, если ее можно представить в виде суммы величин, характеризующих

отдельные части этого объекта. Аддитивной называют функцию f(a-\-b),

если f(a + b) = f(a)+f(b).

44


Пользуясь табл. 2 приложения, находим:

Н(А, Б ) = 0 , 3 4 1 + 0 , 4 4 5 + 0,292+0,113 = 1,191 бита.

Энтропии подсистем (шахт) составят:

 

ЩА)=— 0,9

logü 0,9—0,1 logs 0,1=0,137+0,332=0,469

бита;

ЩБ)=-— 0,8

log2 0,8—0,2 log2 0,2 = 0,258+0,464=0,722

бита.

Суммарная энтропия подсистем равна:

 

Н(А)±Н{Б) =0,469+0,722=1,191 бита.

 

Как видим, она в точности равна энтропии системы.

 

Рассмотрим две дискретные зависимые друг от друга си­

стемы

V и W. Система

V имеет п значений: Ѵ\, Ѵ2,

Ѵп

с ве­

роятностями

pu

Р2,

рп.

Система

W

имеет

m

значений:

Wi, W2

Wmc

вероятностями qu

q2,

 

qm-

 

в том, что

Зависимость систем друг от друга выражается

вероятность

нахождения системы W

в

некотором

состоя­

нии Wj зависит от того, в каком

состоянии в данный

момент

находится система V. Таким образом, если вероятность

нахож­

дения

системы

V в состоянии

Vt

определяется

величиной nh

то вероятность

нахождения

зависимой

от нее системы

W в

состоянии Wj определяется условной вероятностью.

 

 

Совместная

вероятность того,

что система

V будет

 

нахо­

диться

в состоянии Vti

а система

W — в состоянии

Wj,

опре­

деляется по формуле

 

 

 

 

 

 

 

 

 

 

 

 

 

Ягі=РЛт-

 

 

 

 

( I L 3 4 )

Энтропия обеих систем согласно формуле Шеннона будет

л m

 

 

H(V/W)=-

2

2

RijlogRij.

(11.35)

 

 

 

 

( = 1 у=1

 

 

 

Подставив

в данную

формулу

 

выражение для /?;,-,

получим

 

 

 

 

л

m

 

 

 

 

 

H{VjW)=-

 

2

2

 

 

Prtjniogpfij^

 

 

 

 

 

i = î j

= i

 

 

 

 

л

о т

 

 

 

л о

т

 

 

= -

S

2 РіЯінЩРі—

 

2

2

/Ѵ7у/* l ° g < 7 у 7 / =

 

i = \j=\

 

 

 

«=1 j = \

 

= -PiÇ'/Jogp1-plqyilogpl-

 

.

.

. —РіЧыЛьЪРі

~РгЯ1\Л°%Рг—

 

РгФі№Рх-

• — Wm/ . logPa -

45


 

•—Pn94n\ogpa—pnq>/n\ogpn—.

 

.

. —

 

 

 

 

 

 

 

 

 

 

n

m

 

 

 

 

 

 

 

 

— PnQm/n^gPn—

 

S

2l

P0j/ttogqj!l

=

 

 

 

 

 

 

 

 

 

 

 

i =

l j = l

 

 

 

 

 

=

— (4v,+

<7v,+

. +

4mùP\

l o g / V -

• • -

 

 

 

 

- (Ячп + Я'/п + . .

. + qmm)

Pn log Pn

-

 

 

 

 

 

 

 

 

n

 

m

 

 

 

 

 

 

 

 

 

 

 

 

S

 

S

Pfljtilogqjn.

 

 

 

В

связи

с тем, что

условные

вероятности

 

по

каждо­

му і

дают

сумму

<7ѵ;Н~<7Ѵг + .

. • -f-<7m /,-=l, можно записать

 

 

H{VIW)

=

p1\ogpl-p2\ogp2

. .

.—

 

 

 

 

 

 

 

 

 

 

n

m

 

 

 

 

 

 

 

 

-Pn^gPn

 

S

 

S

РіЯѵЛ^Ят-

 

 

 

 

 

 

 

 

 

 

i

=

l y = i

 

 

 

 

 

Отсюда получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

 

 

 

 

n

m

 

 

 

 

H{V}W)

=

2

Piïogp,—

2

S

РіЯііАоъЯрі-

(11-36)

 

 

 

 

 

i = l

 

 

 

 

t

=1

 

 

 

 

Выражение

— 2

P< log/^представляет собой энтропию си-

 

 

 

 

 

i =

1

Л

 

 

 

 

 

стемы К, выражение—

2

 

 

 

 

^/лпредставляет

энтро-

 

 

 

 

 

 

 

t = i

У=1

 

 

 

 

 

пию системы W при известном состоянии системы V. Поэтому

окончательно имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H(VIW)=H(V)

 

+ HV(W),

 

 

(11.37)

где

Н(Ѵ)

 

— энтропия системы

V;

 

 

 

 

 

Нѵ( W)

— условная энтропия системы W.

 

 

 

Условная энтропия системы W, т. е. ее неопределенность, очевидно, будет меньше той энтропии, которую система W имела бы, если бы была независимой, так как знание состоя­ ния системы V, от которой зависит система W, уже снимает некоторую долю неопределенности у системы W. Это обстоя­ тельство можно выразить следующим неравенством;

HV{W)<H{W),

'

(II38)

46