Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 83

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Предположим, получено сообщение АВ, в котором появление А зависит от В и наоборот. Обозначим через р(а£) вероятность появления г-го состояния события А, р (bf) — вероятность появления /-го со­ стояния события В, р (а{1Ь]) — условную вероятность t-го состояния со­ бытия А относительно /-го состояния события В, р (bj/ad — услов­ ную вероятность /-го состояния события В относительно i-ro состояния события А (например, появления /-го символа сообщения В после по­ явления i-гоюимвола сообщения А).

Согласно принципу умножения вероятностей, вероятность со­ вместного появления двух взаимозависимых событий равна произведе­ нию вероятности появления одного из событий на условную вероят­ ность другого события относительно первого:

 

p (ait bj) = р (а,) р (bj/a/) = р (bj) р (at/bj).

(19)

Тогда энтропия взаимозависимых событий А и В

 

 

Н (А, В) = — 2

Р (at, bj) log р (ait bj) =

 

 

ui

 

 

 

= — 2 P (at) P (b//ai) log p (at) p (bj/a,) =

 

 

ui

 

 

 

 

= 2 P ifli) P (bj/ad [1 Ogp (a/) +

log p (bj/a,)] =

 

 

i.i

 

 

 

= — 2 P (ad bg p (at) 2 p (bj/ad 2 P (ad 2 P (bj/ad log P (bj/ad.

(20)

*

/

t

/

 

В выражении (20) сумма — 2

p (a;) log p (ad — не что иное, как эн­

тропия

объекта Л, сумма — 2

р (Ь/1ас ) log р (bj/ad — условная

эн­

тропия объекта В при условии, что реализовалосьi-e состояние объек­

та А.

Если учесть, ч т о 2 р (bj/ad = 1 и 2

р (ad =

1, то выражение

(20)

может быть записано в виде

 

 

 

Н (А, В) = — 2

Р (ad log p ( a d — h p

(bj/ad bg P (bj/ad =

 

*

/

 

(21)

 

 

= H (A) + H (B/A).

Таким образом, в самом общем случае можно сказать, что энтропия

двух статистически связанных событий равна сумме

безусловной Н (Л)

и условной Н (В/А) энтропий. Это хорошо согласуется с общим поня­ тием условной энтропии в том смысле, что она представляет собой не­ которую добавочную энтропию, которую дает сообщение В, когда эн­ тропия сообщения Л уже известна.

Поменяв местами Л и В в выражении (21), нетрудно убедиться в том, что

Н (В ,А ) = Н(В) + Н(А/В).

28


При отсутствии статистической зависимости между сообщениями

А я В

Н(В, А) = Н(В) + Н(А).

При полной статистической зависимости, когда появление одного со­ бытия однозначно определяет информацию о другом событии, энтропия сообщений А я В

Н(А, В) = Н(А) = Н(В).

Если элементы источника сообщений принимают состояния аг,

а2, ..., щ , ..., ап с вероятностями соответственно р (%), р(а2).....р (а£), р(ап),

аэлементы адресата — состояния

Ьг, Ь2, ..., bj, ...,

bn с вероятностя­

 

ми соответственно р(Ь^),

р(Ь2), ...

 

..., р (bj),

...,

р (Ьп), то понятие

 

условной энтропии Н (ajbj) выра­

 

жает

неопределенность

того,

что,

 

отправив ait мы получим bj, а по­

 

нятие

Н (bjla{)

неуверенность,

 

которая остается после

получения

Ь:,

bj, в том, что

было отправлено

именно а£. Графически это может

 

быть представлено следующим об­

 

разом (рис. 11).

Посылаем сигналы

Рис. 11. Иллюстрация неопределеннос­

а£. Если в канале связи присут­

ти принятия сигнала bj при передаче а£.

ствуют помехи, то с различной

 

степенью

вероятности

может

быть

принят любой из сигналов

а{, и, наоборот, принятый сигнал 6/ может появиться в результате отправления любого из сигналов щ (к этому вопросу мы еще вернемся в дальнейшем, при рассмотрении условий передачи сообщений в каналах связи под действием помех).

Формула условной энтропии отличается от классического выраже­

ния (18) тем, что значения вероятностей — другие:

 

ЩЬ,/а,) = — 2 р (bjlot) log р (bj/cti).

(22)

/

 

Ввиду того что для характеристики любого произвольного состояния адресата В выбран индекс /, при вычислении Н (bjla{) суммирование следует производить по /, в связи с тем, что именно энтропия bj нас интересует после отправления а£.

Так как для характеристики любого произвольного состояния ис­ точника А выбран индекс i, то при вычислении Н (a^bj) суммирование следует производить по t, поскольку именно оставшаяся энтропия множества отправленных символов нас интересует после получения символа bj:

H(at/bj) = — 'Iip(ailbj)\ogp(aiIbj).

(23)

29



Выражения (22) и (23) представляют собой частные условные эн-

тропии.

Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащееся в любом сим­ воле алфавита. Ее определяют путем усреднения по всем символам, т. е. по всем состояниям а£ с учетом вероятности появления каждого из них. Она равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигнал:

Н(В1 А) = — 2

р (а,) Н (bj/aj) =

<а ) р (bj/a,) logр (bf/at). (24)

i

,

‘ i

Выражение (24) является общим для определения количества информа­ ции на один символ сообщения в случае взаимозависимых и неравно­ вероятных символов.

Так как р (ад р(Ь,-/ад представляет собой вероятность совместного появления двух событий р (а{, bj), то формулу (24) можно записать следующим образом:

Н (В/А) = — 2

2 P («г, bj) log р (bj/ад.

(25)

i

i

 

Выражения (24) и (25) — равноценны.

В случае взаимозависимых и равновероятных символов в сообще­

нии, т. е. при р (ад = р (bj)

=

 

Н (А!В) = _

_L V Р (Щ/bj) log р (a^bj).

(26)

 

I

 

Вслучае неравновероятных, но независимых символов, т. е. при

р(a-Jbd = р (ад и Н (А, В) = Н (А) = Н (В), выражение для эн­ тропии приобретает знакомый нам вид:

Я = - 2 i а-bg Л.

(27)

И наконец, в случае равновероятных и независимых символов

Р (ад = P (ЬЦ =. - i- и Н (А, В) = Н (А) = Я (В),

Я = ^ log = log т,

(28)

т. е. приходим к формуле Хартли. Это предельное количество инфор­ мации, составленное из равновероятных и независимых символов и позволяющее максимально использовать символы алфавита, Шеннон назвал максимальной энтропией, тем самым установив предел инфор­ мационной нагрузки сообщения из ограниченного числа символов.

Выражения (24)—(28) могут быть использованы для подсчета ко­ личества информации как для отдельных элементов, так и для сооб­ щения в целом.

30


Для сообщений, составленных из п независимых символов, ко- ,личество информации определяют непосредственным умножением на п количества информации, полученного при помощи выражений (27) и (28). При небольшом количестве символов в алфавите вероятности pi легко задать. Для сообщений, составленных из п неравновероятных взаимозависимых символов, при достаточно большом числе п (т. е. при длинных сообщениях) можно использовать формулу (27), так как при этом отдельные символы становятся практически независимыми. В противном случае определить количество информации невозможно без таблицы условных вероятностей.

Если заранее известны статистические свойства источника сооб­ щений, в котором учтены распределения вероятностей отдельных сим­ волов (например, статистические свойства различных буквенных ал­ фавитов хорошо изучены и вероятности появления отдельных букв мо­ гут быть заданы априори) и взаимосвязи между ними (например, появление буквы h после t в английском языке), а также характер рас­ пределения помех в канале связи (например, свойства белого шума хорошо изучены, известно, что у него нормальный закон распределения, и даже-найдено выражение для энтропии суммы сигнала и шума [13]), то для вычисления, количества информации выписывают значения веро­ ятностей отдельных символов и исходных условных вероятностей и подставляют их в выражение (24). В противном случае соответствую­ щие вероятности определяют опытным путем.

Напомним, как это делается. Пусть при передаче п сообщений

символ А появился т раз, т. е.

р (А) = min;

символ А т и символ

В I раз, т. е. р {A -f В) =

т

11п. Далее, пусть при передаче

п сообщений символ В появился I,

а символ А вместе с символом В

k раз. Вероятность появления

символа В

р (В) = 1/п, вероятность

совместного появления символов А и В р (АВ) — kin , условная веро­ ятность появления символа А относительно символа В

р

)

~

-

И

Если известна условная

вероятность, то можно легко определить

и вероятность совместного появления символов А и В,

используя вы­

ражение (29):

 

 

 

 

р (АВ) = р (В) р (А/В) = р (А) р (В/А).

Если известно, что

среди

п сообщений

был получен

символ

А

и что в сообщениях Ег,

Е2, ....

Еп присутствует символ А,

и мы хотим

определить вероятность получения сообщения Еи Е 2, ...,

Еп, зная

о

получении символа А, то пользуемся формулой Бейса:

 

 

р (Ek/A) =

р (A,Ek)

,

 

 

 

 

2 р (Я,-)р

)

 

 

 

 

(=i

 

 

 

31