Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.10.2024
Просмотров: 111
Скачиваний: 0
Исследуем выражение (58). Если помехи отсутствуют или их уровень настолько низок, что они не в состоянии уничтожить сигнал или имитировать полезный сигнал в отсутствие передачи, то при передаче ах мы будем твердо уверены, что получим Ъх. События А и В статистически жестко связаны, условная вероятность максимальна [р (bjlcij) = 1], а условная энтропия
т
Н {А!В) = — 2 р (bj/aj) log р (bj/aj) = О, i=1
так как log р (bj/aj) = log 1 = 0. В этом случае количество информации, содержащееся в принятом ансамбле сообщений В, равно энтропии передаваемых сообщений ансамбля А.
При очень высоком уровне помех любой из принятых сигналов bj может соответствовать любому переданному сигналу, статистиче ская связь между переданными и принятыми сигналами отсутствует. В этом случае вероятности р (а-) и р (bj) есть вероятности независимых событий. Известно, что вероятность совместного появления независи мых событий равна произведению вероятностей этих событий. Следо
вательно, |
(59) |
р (alt bj) = р (а,) р (bj) = р (bj) р (щ) = р (bj, щ). |
С другой стороны, согласно принципу умножения вероятностей, вероятность совместного появления двух событий может быть представ лена через условную вероятность появления одного из них, умножен ную на условную вероятность другого относительного первого, т. е.
p(ah bj) = р (а,) р (bj/at) = р (bj) р (щ/bj). |
(60) |
Сопоставляя выражения (59) и (60), находим, что при отсутствии статистической связи между at и bj
|
p(bj/ai) = p(bj); |
p(ai/bi) = p(at). |
|
Это вполне объяснимо, так как корреляция отсутствует |
и принятое |
||
bj не означает, что было передано ас. |
в формулу (57), находим |
||
Подставляя |
значения р (at/bj) |
||
Н (А/В) = |
— 2 Р (bj) Р (щ) log р (at) = 2 Р (bj) Н (А) = |
Н (А), |
|
|
/V |
/ |
|
так как 2 Р (bj) — 1. Следовательно, энтропия равна безусловной,
/
а количество информации, содержащееся в В, относительно А равно нулю:
/ (А, В) = Н (Л) — Н (AJB) = 0.
Информационные характеристики реальных каналов связи лежат между двумя предельными случаями — когда помехи полностью отсутствуют и когда уровень помех настолько высок, что любому из принятых сигналов может соответствовать любой переданный. Дру гими словами, несмотря на то, что часто информация поражается
4 3-1273 |
97 |
помехами, между принятыми и переданными сообщениями существует статистическая взаимосвязь. Это позволяет описывать информацион ные характеристики реальных каналов связи при помощи энтропии объединения статистически зависимых событий.
При наличии шумов в канале связи появление сигнала b/ не означает, что был передан сигнал ас, но предполагает появление хотя бы одного из сигналов аъ а2,..., а£,..., ат. Поэтому очевидно, что веро ятность совместного появления двух событий связана с условной вероятностью соотношениями, аналогичными выражению (60), т. е.
р {А, В) = р (Л) р (В/А) = р (В) р (А/В).
Используем эти соотношения при выводе выражения для энтропии объединения.
Энтропией объединения называется энтропия совместного появле ния статистически зависимых сообщений. Понятие энтропии объедине ния хорошо усваивается, если представить себе, что существует воз можность видеть и источник сообщений (скажем, некоторый телетайп на входе канала связи), и адресат (телетайп на выходе канала связи).
Предположим, первый телетайп передает цифры 0, 1, 2,..., 9, а второй их принимает. Если бы в канале связи отсутствовали помехи, то всегда переданной цифре соответствовала бы та же цифра на ленте приемного телетайпа. Однако наличие помех лишает нас уверенности, что принятая цифра будет соответствовать переданной. Поэтому с разной степенью вероятности допускают возможность принятия и других цифр, не соответствующих переданной. Наблюдая за переда чей данных по такому каналу связи, можно заметить, как помехи преобразуют одни цифры в другие, и путем подсчета установить какуюто закономерность перехода одних цифр в другие либо полное отсут ствие закономерности. Например, передав цифру 5 сто раз, мы заметили, что цифра 5 принялась 85 раз, цифра 6 — 10 раз, цифра 4 — три раза и по одному разу цифры 3 и 7. Так вот, энтропия объединения описыва ет неопределенность возникновения комбинаций 5—3, 5—4, 5—5, 5—6 и 5—7 при передаче цифры 5, либо неопределенность появления комбинаций 4—7, 5—7, 6—7, 7—7 и 8—7 при приеме цифры 7.
Таким образом, при передаче символов щ первичного и приеме символов bj вторичного алфавитов энтропия объединения статистиче ски зависимых сообщений показывает неопределенность появления комбинаций а£ и bj, устанавливает степень их взаимосвязи, т. е.
Я (А,В) — неопределенность того, что будет послано А, |
а принято В. |
||
Для ансамблей А и В энтропия объединения |
|
||
Н(А, fi) = |
- 2 S |
P ( fl£* bj) logp(ai t bj). |
(61) |
|
i |
i |
|
Теперь, используя (60), можно записать |
|
||
я (А, в) = — 2 |
2 р (“*)р № № °s [р («<) р |
|
|
i |
/ |
|
|
93
Так как |
log [р (щ) р (bj!а£)] = |
log p (at) + log p (bj/at), |
|
||
|
|
||||
TO |
|
|
|
|
|
|
Я (Л ,В ) = - ( 2 |
2 |
р (ад P (bi/ad l°g P (at) + |
|
|
|
1 |
i |
|
|
(62) |
|
+ ^ p ( a |
i)p(bilai)\ogp(bi!ai)]. |
|||
|
* / |
|
|
|
|
Рассмотрим подробнее слагаемые выражения (62): |
|
||||
2 2 р (ai) р (bi/Q) 1о§ Р (fli) = s Рfe)loSP(0;)2 P |
^ |
||||
i |
/ |
|
i |
i |
|
|
= 2 p to) lo§ p (a<) = |
— H (A)> |
|
||
так как |
i |
|
|
|
|
|
|
|
|
|
|
|
2 |
p ( fo/ / a <) = |
! ; |
|
|
|
/ |
|
|
|
|
2 2 |
P (ad p (bi/ai) loS p (bi'ad = - ~ H (#M) [см. формулу (24)]. |
i/
Врезультате энтропия объединения
Я(Л, В) = Я(Л) + Я(В/Л). |
(63) |
Таким образом, энтропия объединения равна сумме безусловной Я (Л) и условной Я (В/Л) энтропий. Энтропия Я (В/Л) представляет
вданном случае ту добавочную информацию, которая дает сообщение
Впосле того, как нам стала известна информация, содержащаяся в сообщении Л .
Свойства энтропии объединения:
1)на основании выражения (59) можно записать, что
Я (Л, В) = Я (В, Л); |
(64) |
2) вместе с тем
Я(Л, В) = Я(Л) + Я(В/Л),
т. е. неопределенность того, что будет передано Л и принятоВ, равна неопределенности того, что будет передано Л плюс неопределенность того, что будет принято В, если передано Л. Это было доказано при выводе формулы (63).
Очевидно и то, что
Н( В ,А ) = Н(В) + Н(А1В);
3)так как Я (Л, В) = Я (В, Л), то
Я (Л) + Я (В/Л) = Я (В) + Я (Л/В), |
(65) |
или |
|
Я(Л) — Я(Л/В) = Я(В) — Я(В/Л); |
(66) |
4) согласно свойствам условной энтропии, если Л и В статистиче ски независимы, то
Я (Л/В) = Я (Л); Я (Л, В) = Я (Л) + Я (В),
4' |
99 |
что соответствует высокому уровню помех. Если Л и В статистически жестко связаны, то
Я (А/В) = 0; Я (А, В) = Н (А) = Н (В),
что соответствует низкому уровню помех либо полному их отсутствию. Таким образом, при передаче ансамбля сообщений А количество
информации в принятом ансамбле В, согласно выражению (58),
1(В,А) = Н ( А ) - Н ( А / В ) .
Однако на основании формулы (66) Я (AIB) = Я (В, А) — Я (В). Следовательно,
/ (В, А) = Н (А) + Н (В) — Я (В, А). |
(67) |
Известно, что
Н(А) = — 2 р (a,) log/? (а,); i
Н(В) = - ^ р ф ,) 1 о ш р ( Ь ,) ;
/
я (А, В) = - 2 |
2 р fa. */) lQg р fa . */) = |
i |
/ |
=—2 2 p fa) p fafa)los pfa) p fafa).
* |
/ |
|
тогда |
|
|
/ (В, Л) = |
— 2 P («;) log p fa) — 2 P fa) log P fa) + |
|
|
( |
i |
. + |
P (a,-) P fa-fa) log p fa) p fafa)- |
|
i |
i |
|
Умножив первое и второе слагаемые последнего равенства со |
||
ответственно на 2 Р (bjlcti) ~ |
1 и 2 Р {aJbj) = 1, получим |
|
у |
|
* |
/(Б , |
А) = — ^ p ib jfa i) % p ( a l)\ogp(ai) — %p(ai/bi) 2 ip(bj)logp(bi)+ |
|||||||
|
|
|
i |
t |
|
‘ |
i |
|
+ 2 |
2 |
p fa) p fa fa ) lo§ p fa) p f a f a ) = 2 |
2 |
p fa) p fa fa ) loe p fa) ~ |
||||
i |
i |
|
|
|
i |
i |
|
|
— 2 |
2 p fa) p fa fa ) l0§ p fa) + 2 |
2 p fa) p fa fa ) log p fa) p fafa)- |
||||||
|
i |
i |
|
i |
/ |
|
|
(68) |
|
|
|
|
|
|
|
|
|
Используя |
(60), |
второе слагаемое запишем в виде 2 2 |
P fa) P fa fa ) X |
|||||
X log p fa). |
|
|
|
i i |
|
|||
|
|
|
согласно |
которому |
||||
|
Тогда, |
используя свойство логарифмов, |
||||||
|
|
|
— ft logaX — k logaу + k loga 2 = |
k l0gfl - J - , |
100