Файл: Ливенцев В.В. Кибернетика горных предприятий (основные положения) учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 02.08.2024

Просмотров: 62

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Формула Шеннона приобретает в этом случае вид

k

w w = _ 2 ] - i i o g 4 - = - * . A . w

j - =

— — log _ L — — jog i _|_ i 0 g # — i 0 g k.

k

 

 

В окончательном виде имеем

 

H(W)=\ogk,

(11.17)

т. е. энтропия системы

с равновероятными

состояниями

равна логарифму числа состояний.

1

Выражение (П.17) носит название формулы

Хартли и яв­

ляется частным случаем формулы Шеннона.

 

Формулой Хартли следует пользоваться всякий раз, когда

известно число состояний

системы, но неизвестны вероятности

этих состояний. Как мы видим, в формуле Хартли эти вероят­ ности априори принимаются равными друг другу. Важным свойством формулы является то, что постериорные значения вероятностей только уменьшают энтропию системы.

Таким образом, формула Хартли дает выражение для мак­ симума энтропии системы с конечным множеством состояний.

Докажем это свойство.

Пусть система

W имеет k состоя­

ний с вероятностями р\, р2,

/?/,••>

/ V

Найдем

максимум

функции H(W):

 

 

 

 

 

k

 

 

 

H{W)^^^pl\ogpi^mux

 

 

(11.18)

при условии

( = 1

 

 

 

 

 

 

 

k

 

 

 

 

2 Pi = 1.

 

 

(11.19)

В математическом отношении задача свелась к нахожде­

нию максимума (точнее, экстремума)

функции k

переменных

с добавочным условием. Для отыскания оптимальных значе­

ний переменных р\, р2,

Pi,...,

рк

воспользуемся

методом

неопределенных множителей Лагранжа.

 

Как известно, этот метод сводится в данном случае к оты­

сканию экстремума функции

 

 

 

 

k

 

k

 

L = -

2 Pl\ogPl

+ k

2 Pi-

(11-20)

 

1 = 1

 

t = l

 

38


Дифференцируя (11.20) по ри р2, Р к и приравни­ вая частные производные к нулю, получим систему уравнений

dL

=

— log pt

loge + 1 =

0;

 

дрх

 

 

 

 

 

 

dL

=

— log/>2

— log e + X. = 0;

(П. 21)

др2

 

 

 

 

 

 

dL

 

log Pi — loge + X = 0 ;

 

dpi

 

 

 

 

 

 

 

dL

 

— log/?« — loge + X =

0,

 

dpK

 

 

 

 

 

 

 

или

 

 

 

 

 

 

 

log/?! =

X loge;

 

 

 

 

log р2 = Ь — loge;

 

 

 

 

 

 

 

(11.22)

 

 

log pi =

к — loge;

 

 

log/7K = X - log e;

откуда видно, что максимум функции H(W) достигается при

l o g p j ^ l o g ^ , ^

 

 

-AogpK.

(11.23)

Это означает, что

 

 

 

 

 

-Pi

 

Р к = — ,

(11.24)

a максимальная энтропия системы равна

 

 

Hmn(W)

=

\ogk,

 

(11.25)

т. е. мы получили формулу Хартли.

Довольно часто мы встречаемся с системами, возможные состояния которых не являются равновероятными. К та­ ким системам, например, относятся горные машины, механиз­ мы и их комплексы: состояние работоспособности этих систем является более вероятным, чем неисправность, (ибо в против­ ном случае или в случае равенства вероятностей этих состоя-

39



ний эксплуатация подобного оборудования была бы весьма неэффективной).

«Степень неожиданности» того или иного состояния систе­ мы определяется его вероятностью: чем меньше вероятность, тем событие неожиданнее. С увеличением неожиданности со­ бытия возрастает ценность связанной с ним информации, иными словами, чем меньшей вероятностью обладает событие, тем большее количество информации несет в себе сообщение о том, что система попала именно в это, маловероятное, со­ стояние.

Назначением информации, заключенной в сообщении, яв­ ляется уменьшение энтропии системы под воздействием этого сообщения. Если, например, до поступления сообщения эн­ тропия системы была равна двум битам, а после него стала равной одному биту, то информация, заключенная в сообще­ нии, равна одному биту.

Следовательно,

информация

является

мерой

определенно­

сти вероятностной

системы.

 

 

 

Таким образом, количество информации о некоторой си­

стеме X можно представить в виде следующего

выражения:

 

І(Х)

=Н{Х)

— Н'(Х),

 

(11.26)

где І(Х) —количество

информации о системе

X:

Н(Х)—начальная

 

энтропия системы (начальное незна­

ние о состоянии системы X) ;

 

 

Н'(Х)—конечная

 

энтропия

системы

(конечное незнание

о состоянии системы

X).

 

 

Если сообщение полностью ликвидирует неопределенность системы, т. е. Н'(Х)=0, то величина информации, содержа­ щейся в этом сообщении, численно равна начальной энтропии системы.

Поскольку в подавляющем большинстве случаев сообще­ ния строятся таким образом, чтобы полностью снять неопре­ деленность системы, то для измерения информации в дискрет­ ных системах вполне применима формула Шеннона; символ энтропии необходимо только заменить символом информации:

k

 

 

I(W)=~%

Pilogp,.

(И-27)

i =

l

 

Информация измеряется в

тех же единицах,

что и эн­

тропия.

 

 

Понятию «информация в битах» можно дать очень на­ глядное истолкование: она равна числу ответов «да» или «нет» на разумно поставленные вопросы о состоянии системы. Разумность постановки вопросов определяется тем, что их

40


Задают в дихотомическом порядке (дихотомия — последова­ тельное разбиение пополам). Поясним это на примере.

Пусть система А может иметь два равновероятных состоя­ ния Ах и А2. Тогда полное выяснение состояния этой системы несет информацию в 1 бит, и, значит, можно ее получить в ре­ зультате ответа на один вопрос. В самом деле, задав одинединственный вопрос: «Находится ли система в состоянии Л]?» и получив на него ответ «да» или «нет», мы полностью выяс­ ним состояние системы.

Возьмем другой пример. Пусть в лаве длиной 160 м рабо­ тает узкозахватный комбайн, передвигающийся по раме скреб­ кового конвейера. На конвейере через каждые 20 м установ­ лены контактные датчики, на которые последовательно нажи­ мает комбайн при своем движении вдоль забоя.

По показаниям датчиков, сигналы от которых передаются, допустим, на пульт горного диспетчера, можно судить, на ка­ ком участке лавы находится комбайн в каждый момент вре­ мени.

Комбайн может быть в одном из восьми состояний: на участках лавы от 0—20 м до 140—160 м. Эти состояния будем считать равновероятными, так как комбайн последовательно проходит все участки лавы, не минуя ни один.

Сообщение, несущее информацию о том, на каком участке лавы находится комбайн в данный момент, полностью ликви­ дирует неопределенность системы. Следовательно, информа­ ция о местонахождении комбайна численно равна энтропии системы, т. е.

8

 

/(К) = - S Л ^ЬРь бит,

(11.28)

« = 1

 

где І(К) —количество информации о местонахождении ком­ байна (К), бит;

1 Рі— априорная вероятность г-того состояния, равна — .

8 Подставляя значение р( = — в формулу, получаем

 

1

1

1{К) = - У

г

1 о § 2 = 3 бита.

.

, о

о

Это означает, что полное выяснение того, на каком участке лавы находится комбайн, можно получить с помощью трех ответов «да» или «нет» на три дихотомически поставленных вопроса. Зададим эти вопросы. Первый: «Находится ли ком-

41