Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.10.2024
Просмотров: 83
Скачиваний: 0
Предположим, получено сообщение АВ, в котором появление А зависит от В и наоборот. Обозначим через р(а£) вероятность появления г-го состояния события А, р (bf) — вероятность появления /-го со стояния события В, р (а{1Ь]) — условную вероятность t-го состояния со бытия А относительно /-го состояния события В, р (bj/ad — услов ную вероятность /-го состояния события В относительно i-ro состояния события А (например, появления /-го символа сообщения В после по явления i-гоюимвола сообщения А).
Согласно принципу умножения вероятностей, вероятность со вместного появления двух взаимозависимых событий равна произведе нию вероятности появления одного из событий на условную вероят ность другого события относительно первого:
|
p (ait bj) = р (а,) р (bj/a/) = р (bj) р (at/bj). |
(19) |
||
Тогда энтропия взаимозависимых событий А и В |
|
|||
|
Н (А, В) = — 2 |
Р (at, bj) log р (ait bj) = |
|
|
|
ui |
|
|
|
|
= — 2 P (at) P (b//ai) log p (at) p (bj/a,) = |
|
||
|
ui |
|
|
|
|
= — 2 P ifli) P (bj/ad [1 Ogp (a/) + |
log p (bj/a,)] = |
|
|
|
i.i |
|
|
|
= — 2 P (ad bg p (at) 2 p (bj/ad — 2 P (ad 2 P (bj/ad log P (bj/ad. |
(20) |
|||
* |
/ |
t |
/ |
|
В выражении (20) сумма — 2 |
p (a;) log p (ad — не что иное, как эн |
|||
тропия |
объекта Л, сумма — 2 |
р (Ь/1ас ) log р (bj/ad — условная |
эн |
тропия объекта В при условии, что реализовалосьi-e состояние объек
та А. |
Если учесть, ч т о 2 р (bj/ad = 1 и 2 |
р (ad = |
1, то выражение |
|
(20) |
может быть записано в виде |
|
|
|
|
Н (А, В) = — 2 |
Р (ad log p ( a d — h p |
(bj/ad bg P (bj/ad = |
|
|
* |
/ |
|
(21) |
|
|
= H (A) + H (B/A). |
||
Таким образом, в самом общем случае можно сказать, что энтропия |
||||
двух статистически связанных событий равна сумме |
безусловной Н (Л) |
и условной Н (В/А) энтропий. Это хорошо согласуется с общим поня тием условной энтропии в том смысле, что она представляет собой не которую добавочную энтропию, которую дает сообщение В, когда эн тропия сообщения Л уже известна.
Поменяв местами Л и В в выражении (21), нетрудно убедиться в том, что
Н (В ,А ) = Н(В) + Н(А/В).
28
При отсутствии статистической зависимости между сообщениями
А я В
Н(В, А) = Н(В) + Н(А).
При полной статистической зависимости, когда появление одного со бытия однозначно определяет информацию о другом событии, энтропия сообщений А я В
Н(А, В) = Н(А) = Н(В).
Если элементы источника сообщений принимают состояния аг,
а2, ..., щ , ..., ап с вероятностями соответственно р (%), р(а2).....р (а£), р(ап),
аэлементы адресата — состояния
Ьг, Ь2, ..., bj, ..., |
bn с вероятностя |
|
|||||
ми соответственно р(Ь^), |
р(Ь2), ... |
|
|||||
..., р (bj), |
..., |
р (Ьп), то понятие |
|
||||
условной энтропии Н (ajbj) выра |
|
||||||
жает |
неопределенность |
того, |
что, |
|
|||
отправив ait мы получим bj, а по |
|
||||||
нятие |
Н (bjla{) |
неуверенность, |
|
||||
которая остается после |
получения |
Ь:, |
|||||
bj, в том, что |
было отправлено |
||||||
именно а£. Графически это может |
|
||||||
быть представлено следующим об |
|
||||||
разом (рис. 11). |
Посылаем сигналы |
Рис. 11. Иллюстрация неопределеннос |
|||||
а£. Если в канале связи присут |
|||||||
ти принятия сигнала bj при передаче а£. |
|||||||
ствуют помехи, то с различной |
|
||||||
степенью |
вероятности |
может |
быть |
принят любой из сигналов |
а{, и, наоборот, принятый сигнал 6/ может появиться в результате отправления любого из сигналов щ (к этому вопросу мы еще вернемся в дальнейшем, при рассмотрении условий передачи сообщений в каналах связи под действием помех).
Формула условной энтропии отличается от классического выраже
ния (18) тем, что значения вероятностей — другие: |
|
ЩЬ,/а,) = — 2 р (bjlot) log р (bj/cti). |
(22) |
/ |
|
Ввиду того что для характеристики любого произвольного состояния адресата В выбран индекс /, при вычислении Н (bjla{) суммирование следует производить по /, в связи с тем, что именно энтропия bj нас интересует после отправления а£.
Так как для характеристики любого произвольного состояния ис точника А выбран индекс i, то при вычислении Н (a^bj) суммирование следует производить по t, поскольку именно оставшаяся энтропия множества отправленных символов нас интересует после получения символа bj:
H(at/bj) = — 'Iip(ailbj)\ogp(aiIbj). |
(23) |
29
Выражения (22) и (23) представляют собой частные условные эн-
тропии.
Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащееся в любом сим воле алфавита. Ее определяют путем усреднения по всем символам, т. е. по всем состояниям а£ с учетом вероятности появления каждого из них. Она равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигнал:
Н(В1 А) = — 2 |
р (а,) Н (bj/aj) = |
<а ) р (bj/a,) logр (bf/at). (24) |
i |
, |
‘ i |
Выражение (24) является общим для определения количества информа ции на один символ сообщения в случае взаимозависимых и неравно вероятных символов.
Так как р (ад р(Ь,-/ад представляет собой вероятность совместного появления двух событий р (а{, bj), то формулу (24) можно записать следующим образом:
Н (В/А) = — 2 |
2 P («г, bj) log р (bj/ад. |
(25) |
i |
i |
|
Выражения (24) и (25) — равноценны.
В случае взаимозависимых и равновероятных символов в сообще
нии, т. е. при р (ад = р (bj) |
= |
|
Н (А!В) = _ |
_L V Р (Щ/bj) log р (a^bj). |
(26) |
|
I |
|
Вслучае неравновероятных, но независимых символов, т. е. при
р(a-Jbd = р (ад и Н (А, В) = Н (А) = Н (В), выражение для эн тропии приобретает знакомый нам вид:
Я = - 2 i а-bg Л. |
(27) |
И наконец, в случае равновероятных и независимых символов
Р (ад = P (ЬЦ =. - i- и Н (А, В) = Н (А) = Я (В),
Я = ^ log = log т, |
(28) |
т. е. приходим к формуле Хартли. Это предельное количество инфор мации, составленное из равновероятных и независимых символов и позволяющее максимально использовать символы алфавита, Шеннон назвал максимальной энтропией, тем самым установив предел инфор мационной нагрузки сообщения из ограниченного числа символов.
Выражения (24)—(28) могут быть использованы для подсчета ко личества информации как для отдельных элементов, так и для сооб щения в целом.
30
Для сообщений, составленных из п независимых символов, ко- ,личество информации определяют непосредственным умножением на п количества информации, полученного при помощи выражений (27) и (28). При небольшом количестве символов в алфавите вероятности pi легко задать. Для сообщений, составленных из п неравновероятных взаимозависимых символов, при достаточно большом числе п (т. е. при длинных сообщениях) можно использовать формулу (27), так как при этом отдельные символы становятся практически независимыми. В противном случае определить количество информации невозможно без таблицы условных вероятностей.
Если заранее известны статистические свойства источника сооб щений, в котором учтены распределения вероятностей отдельных сим волов (например, статистические свойства различных буквенных ал фавитов хорошо изучены и вероятности появления отдельных букв мо гут быть заданы априори) и взаимосвязи между ними (например, появление буквы h после t в английском языке), а также характер рас пределения помех в канале связи (например, свойства белого шума хорошо изучены, известно, что у него нормальный закон распределения, и даже-найдено выражение для энтропии суммы сигнала и шума [13]), то для вычисления, количества информации выписывают значения веро ятностей отдельных символов и исходных условных вероятностей и подставляют их в выражение (24). В противном случае соответствую щие вероятности определяют опытным путем.
Напомним, как это делается. Пусть при передаче п сообщений
символ А появился т раз, т. е. |
р (А) = min; |
символ А — т и символ |
|
В — I раз, т. е. р {A -f В) = |
т |
11п. Далее, пусть при передаче |
|
п сообщений символ В появился I, |
а символ А вместе с символом В — |
||
k раз. Вероятность появления |
символа В |
р (В) = 1/п, вероятность |
совместного появления символов А и В р (АВ) — kin , условная веро ятность появления символа А относительно символа В
р № |
) |
~ |
- |
И |
Если известна условная |
вероятность, то можно легко определить |
|||
и вероятность совместного появления символов А и В, |
используя вы |
|||
ражение (29): |
|
|
|
|
р (АВ) = р (В) р (А/В) = р (А) р (В/А).
Если известно, что |
среди |
п сообщений |
был получен |
символ |
А |
и что в сообщениях Ег, |
Е2, .... |
Еп присутствует символ А, |
и мы хотим |
||
определить вероятность получения сообщения Еи Е 2, ..., |
Еп, зная |
о |
|||
получении символа А, то пользуемся формулой Бейса: |
|
|
|||
р (Ek/A) = |
р (A,Ek) |
, |
|
|
|
|
|
2 р (Я,-)р № |
) |
|
|
|
|
(=i |
|
|
|
31