Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 111

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Исследуем выражение (58). Если помехи отсутствуют или их уровень настолько низок, что они не в состоянии уничтожить сигнал или имитировать полезный сигнал в отсутствие передачи, то при передаче ах мы будем твердо уверены, что получим Ъх. События А и В статистически жестко связаны, условная вероятность максимальна (bjlcij) = 1], а условная энтропия

т

Н {А!В) = — 2 р (bj/aj) log р (bj/aj) = О, i=1

так как log р (bj/aj) = log 1 = 0. В этом случае количество информации, содержащееся в принятом ансамбле сообщений В, равно энтропии передаваемых сообщений ансамбля А.

При очень высоком уровне помех любой из принятых сигналов bj может соответствовать любому переданному сигналу, статистиче­ ская связь между переданными и принятыми сигналами отсутствует. В этом случае вероятности р (а-) и р (bj) есть вероятности независимых событий. Известно, что вероятность совместного появления независи­ мых событий равна произведению вероятностей этих событий. Следо­

вательно,

(59)

р (alt bj) = р (а,) р (bj) = р (bj) р (щ) = р (bj, щ).

С другой стороны, согласно принципу умножения вероятностей, вероятность совместного появления двух событий может быть представ­ лена через условную вероятность появления одного из них, умножен­ ную на условную вероятность другого относительного первого, т. е.

p(ah bj) = р (а,) р (bj/at) = р (bj) р (щ/bj).

(60)

Сопоставляя выражения (59) и (60), находим, что при отсутствии статистической связи между at и bj

 

p(bj/ai) = p(bj);

p(ai/bi) = p(at).

 

Это вполне объяснимо, так как корреляция отсутствует

и принятое

bj не означает, что было передано ас.

в формулу (57), находим

Подставляя

значения р (at/bj)

Н (А/В) =

— 2 Р (bj) Р (щ) log р (at) = 2 Р (bj) Н (А) =

Н (А),

 

/V

/

 

так как 2 Р (bj) — 1. Следовательно, энтропия равна безусловной,

/

а количество информации, содержащееся в В, относительно А равно нулю:

/ (А, В) = Н (Л) — Н (AJB) = 0.

Информационные характеристики реальных каналов связи лежат между двумя предельными случаями — когда помехи полностью отсутствуют и когда уровень помех настолько высок, что любому из принятых сигналов может соответствовать любой переданный. Дру­ гими словами, несмотря на то, что часто информация поражается

4 3-1273

97


помехами, между принятыми и переданными сообщениями существует статистическая взаимосвязь. Это позволяет описывать информацион­ ные характеристики реальных каналов связи при помощи энтропии объединения статистически зависимых событий.

При наличии шумов в канале связи появление сигнала b/ не означает, что был передан сигнал ас, но предполагает появление хотя бы одного из сигналов аъ а2,..., а£,..., ат. Поэтому очевидно, что веро­ ятность совместного появления двух событий связана с условной вероятностью соотношениями, аналогичными выражению (60), т. е.

р {А, В) = р (Л) р (В/А) = р (В) р (А/В).

Используем эти соотношения при выводе выражения для энтропии объединения.

Энтропией объединения называется энтропия совместного появле­ ния статистически зависимых сообщений. Понятие энтропии объедине­ ния хорошо усваивается, если представить себе, что существует воз­ можность видеть и источник сообщений (скажем, некоторый телетайп на входе канала связи), и адресат (телетайп на выходе канала связи).

Предположим, первый телетайп передает цифры 0, 1, 2,..., 9, а второй их принимает. Если бы в канале связи отсутствовали помехи, то всегда переданной цифре соответствовала бы та же цифра на ленте приемного телетайпа. Однако наличие помех лишает нас уверенности, что принятая цифра будет соответствовать переданной. Поэтому с разной степенью вероятности допускают возможность принятия и других цифр, не соответствующих переданной. Наблюдая за переда­ чей данных по такому каналу связи, можно заметить, как помехи преобразуют одни цифры в другие, и путем подсчета установить какуюто закономерность перехода одних цифр в другие либо полное отсут­ ствие закономерности. Например, передав цифру 5 сто раз, мы заметили, что цифра 5 принялась 85 раз, цифра 6 — 10 раз, цифра 4 — три раза и по одному разу цифры 3 и 7. Так вот, энтропия объединения описыва­ ет неопределенность возникновения комбинаций 5—3, 5—4, 5—5, 5—6 и 5—7 при передаче цифры 5, либо неопределенность появления комбинаций 4—7, 5—7, 6—7, 7—7 и 8—7 при приеме цифры 7.

Таким образом, при передаче символов щ первичного и приеме символов bj вторичного алфавитов энтропия объединения статистиче­ ски зависимых сообщений показывает неопределенность появления комбинаций а£ и bj, устанавливает степень их взаимосвязи, т. е.

Я (А,В) — неопределенность того, что будет послано А,

а принято В.

Для ансамблей А и В энтропия объединения

 

Н(А, fi) =

- 2 S

P ( fl£* bj) logp(ai t bj).

(61)

 

i

i

 

Теперь, используя (60), можно записать

 

я (А, в) = — 2

2 р (“*)р № № °s [р («<) р

 

i

/

 

 

93


Так как

log [р (щ) р (bj!а£)] =

log p (at) + log p (bj/at),

 

 

 

TO

 

 

 

 

 

 

Я (Л ,В ) = - ( 2

2

р (ад P (bi/ad l°g P (at) +

 

 

1

i

 

 

(62)

 

+ ^ p ( a

i)p(bilai)\ogp(bi!ai)].

 

* /

 

 

 

 

Рассмотрим подробнее слагаемые выражения (62):

 

2 2 р (ai) р (bi/Q) 1о§ Р (fli) = s Рfe)loSP(0;)2 P

^

i

/

 

i

i

 

 

= 2 p to) lo§ p (a<) =

H (A)>

 

так как

i

 

 

 

 

 

 

 

 

 

 

2

p ( fo/ / a <) =

! ;

 

 

/

 

 

 

 

2 2

P (ad p (bi/ai) loS p (bi'ad = - ~ H (#M) [см. формулу (24)].

i/

Врезультате энтропия объединения

Я(Л, В) = Я(Л) + Я(В/Л).

(63)

Таким образом, энтропия объединения равна сумме безусловной Я (Л) и условной Я (В/Л) энтропий. Энтропия Я (В/Л) представляет

вданном случае ту добавочную информацию, которая дает сообщение

Впосле того, как нам стала известна информация, содержащаяся в сообщении Л .

Свойства энтропии объединения:

1)на основании выражения (59) можно записать, что

Я (Л, В) = Я (В, Л);

(64)

2) вместе с тем

Я(Л, В) = Я(Л) + Я(В/Л),

т. е. неопределенность того, что будет передано Л и принятоВ, равна неопределенности того, что будет передано Л плюс неопределенность того, что будет принято В, если передано Л. Это было доказано при выводе формулы (63).

Очевидно и то, что

Н( В ,А ) = Н(В) + Н(А1В);

3)так как Я (Л, В) = Я (В, Л), то

Я (Л) + Я (В/Л) = Я (В) + Я (Л/В),

(65)

или

 

Я(Л) — Я(Л/В) = Я(В) — Я(В/Л);

(66)

4) согласно свойствам условной энтропии, если Л и В статистиче­ ски независимы, то

Я (Л/В) = Я (Л); Я (Л, В) = Я (Л) + Я (В),

4'

99



что соответствует высокому уровню помех. Если Л и В статистически жестко связаны, то

Я (А/В) = 0; Я (А, В) = Н (А) = Н (В),

что соответствует низкому уровню помех либо полному их отсутствию. Таким образом, при передаче ансамбля сообщений А количество

информации в принятом ансамбле В, согласно выражению (58),

1(В,А) = Н ( А ) - Н ( А / В ) .

Однако на основании формулы (66) Я (AIB) = Я (В, А) — Я (В). Следовательно,

/ (В, А) = Н (А) + Н (В) — Я (В, А).

(67)

Известно, что

Н(А) = — 2 р (a,) log/? (а,); i

Н(В) = - ^ р ф ,) 1 о ш р ( Ь ,) ;

/

я (А, В) = - 2

2 р fa. */) lQg р fa . */) =

i

/

=—2 2 p fa) p fafa)los pfa) p fafa).

*

/

 

тогда

 

 

/ (В, Л) =

— 2 P («;) log p fa) — 2 P fa) log P fa) +

 

(

i

. +

P (a,-) P fa-fa) log p fa) p fafa)-

i

i

 

Умножив первое и второе слагаемые последнего равенства со­

ответственно на 2 Р (bjlcti) ~

1 и 2 Р {aJbj) = 1, получим

у

 

*

/(Б ,

А) = — ^ p ib jfa i) % p ( a l)\ogp(ai) — %p(ai/bi) 2 ip(bj)logp(bi)+

 

 

 

i

t

 

i

 

+ 2

2

p fa) p fa fa ) lo§ p fa) p f a f a ) = 2

2

p fa) p fa fa ) loe p fa) ~

i

i

 

 

 

i

i

 

 

— 2

2 p fa) p fa fa ) l0§ p fa) + 2

2 p fa) p fa fa ) log p fa) p fafa)-

 

i

i

 

i

/

 

 

(68)

 

 

 

 

 

 

 

 

Используя

(60),

второе слагаемое запишем в виде 2 2

P fa) P fa fa ) X

X log p fa).

 

 

 

i i

 

 

 

 

согласно

которому

 

Тогда,

используя свойство логарифмов,

 

 

 

— ft logaX k logaу + k loga 2 =

k l0gfl - J - ,

100