Файл: Бовбель, Е. И. Элементы теории информации.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2024

Просмотров: 56

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Аналогично

/(У, Х ) = 0 и в пункте б).

Мы знаем,

что количество информации, содержащее­

ся в сообщении у j о хі, равно нулю только в том случае,

•когда сообщения у j и хі

статистически независимы. По­

кажем, что сообщения yj

и х;

в пунктах а) и б) незави­

симы.

 

 

 

 

 

P(yj/Xi) =

=

Условие

независимости выглядит

так-

Р ( у j) (і,

/= 1, 2). Покажем,

к примеру, что в пункте

•а)

у 1 не зависит от х2:

 

:

 

 

 

 

Р(Уі,%) = 1 - Р(У2/х а) =

1 -

В=

0,5;

(1.24)

Р(уг) = ЯЛ + /? (1 — 8) =

р-0,5

4- р( 1 — 0,5) =

0,5. (1.25)

Сравнивая (1.24) и (1.25), получаем

условие

независи­

мости у\ от х2:

 

 

 

 

 

 

 

Р(У\ІХ2)= Р ( У \) .

 

 

 

Аналогично можно показать независимость у\

от Х\ и т. п.

 

Задача 3. По каналу связи

передается один из двух

сигналов Х\

или х2 с одинаковыми вероятностям^ На вы­

ходе канала сигналы х хи х2 преобразуются в сигналы у\ и і/о, причем из-за помех, которым одинаково подвержены сигналы Х\ и х2, в передачу вносятся ошибки, так что в среднем один сигнал из 100 принимается неверно. Опре­ делить среднее количество информации на один сигнал,

передаваемой

по такому

каналу.

Сравнить ее с коли­

чеством информации

при отсутствии помех.

Р е ш е н и с. В условиях задачи даны следующие ве­

роятности:

 

 

 

 

 

 

Р(Л-,) = Р(х2) = 0,5,

Р{Уі/х2) =

РІУг'Хі) = 0,01.

По теореме умножения вероятностен находим:

Р(х1, У\) =

Я(-Сі)11 -

Р (у * М

=

0,5-0;99 = 0,495; ,

Р(ХУг) = Р(хг) Р(у2/х,) =

0,5-0,01 = 0,005;

Р(Х2, Уі) = Р{хг) Р{уі/хг) = 0,5-0,01 = 0,005;

Р(Х,, Уі) =

Р(х2) [1 - Р Ы х 2)}

=

0,5-0,99 = 0,495.

Из формулы

полной

вероятности

 

Р(Уі) =

2 Р{хі,

Уі) =

Р{хi,

Уі) + Р{Уі, X,) =

 

I= 1

 

 

 

 

 

 

= 0,495 +

0,005 =

0,5;

:зо


о

J i

 

Р(Уй) = X Р(Хі, уг) = Р(Х\, Уі) + Р(х2, Уг) =

1=1

» 0,005 + 0,495 = 0,5.

При отсутствии помех количество информации равно эн­ тропии выходных сигналов:

I(Y, Х) = H(Y) = - 2 P{yj) log P(yj) = log 2 = 1 (бит).

Для определения количества информации при наличии помех вычислим условную энтропию:

H(Y/X) = - I I

P(Xit у ) log p(yj/xi) =

 

і =1 y=i

y

y

= — P(x

t/i) log РІУн'х,) — P(JC„ >',) log P y tlx2) —

Р(Хг,

Ух) log Я ОУ*,) — Я(х2,

у2) log P(yoJx2) =

=— Q,495 log 0 ,9 9 -0 ,0 0 5 log 0,01 —

0,0051og0,01 — 0,495 log 0,99 = 0,081 (бит).

Таким образом, при наличии помех

I(Y, X ) = H ( Y ) —H(Y/X) = 1—0,081=0,919 (бит).

Задача 4. Используя (1.20), найти формулу для точ­ ного количества информации, содержащегося в сообще­

нии у j о

сообщении Х[.

перепишем

в виде

Р еш е и и е.

Формулу

1{У,

* ) =

P{yj) 2

P(xtlyj) log

Р(Уі)Р(хі/Уі)

 

 

1=1

 

Р(Уі) Р(Хі)

 

 

 

 

' т п

= У) P(yj) 2

X“ 1 і—і

P(Xiiyj) log Р(Хі/Уі)

Л*/) '

Отсюда видно, что величина

П

P(Xi/yj)

ПУр X) = У P(xi'yj) log

/=1

P(Xi)

 

случайна и представляет собой среднее количество ин­ формации, содержащееся в ijj относительно любого из сообщений хі , а случайная величина

Хі) = log P(Xj/y,)

P(Xi)

31


есть точное количество информации, содержащейся в со­ общении IJj о Хі .

Задача б. Число X появлений события А в серии п независимых испытаний распределено по биномиально­ му закону

Р(Х = т) = С™р т qn~m

где р — вероятность события А при одном

испытании, а

q = 1—р. В зависимости от результатов указанной серии

испытаний происходит или не происходит

некоторое со­

бытие В с условными

вероятностями

Р(В/Х = т) = Gm;

Р{В;Х = /л) = 1 — Gm= Qm.

Определить количество информации, несомое событием В о X, рассматривая его как случайную величину, при­ нимающую значения 1 или 0.

+ Gmlog —-------— ---- —

2 РкХ = m) Gm

От в е т : /(У, X) = — qnlog qn— (1 — qn) log (1 — qn).

Задача 7. В условиях предыдущей задачи определить число испытаний в серии по, которое доставляет макси­ мум информации I(Y, X).

От в е т :

Яо= — 1 /log (1—р).

Задача 8.

На вход линии связи, в которой действуют

шумы, поступает сообщение X в двоичном виде МП 1000* На выходе линии связи зафиксирована последователь­ ность 11100001. Определить точные и среднее количества информации, содержащиеся в Y о X.

32

Р е ш е н и е. Для удобства расчетов обозначим

Х-+ АААААВВВ; Y-+ CCCDDDDC.

Между X и У имеется некоторый элемент беспорядочнос­ ти, представляющий шум. Легко видеть, что

Р(х, у),

Р(А, С) ='3/8,

Р(А, Д) = 2/8,

Р(В, Z?; = 2/8,

Р(В, С) = 1/8,

Р(х),

Р(А)=5/&,

P(A) = 5ß,

Р(В) =3/8,-

Р(В) =гЗ/8,

Р(у).

Р(С) — Щ,

P(D)=4j&,

Р(7>) = 4/8,

Р[С) =4/8,

Р(хіу),

P(AJC) = m ,

P(AjD) = \I2,

P(B/D) = 1/2,

P(B/C) = 1/4,

P(ylx),

P(C/A)= 3/5,

P(D/A)~2/5,

P(DfB) = 2/3,

Р(С/В) = 1/3.

По формуле

Am z/) =

ж *.)')

A * ) P(y)

 

определим соответствующие точные количества инфор­ мации (бит):

 

ДЛ , С) =

/(С,

Л) =

log-jr- — 0,263-,

«

%

 

 

 

 

/(Л,

D ) = I ( D ,

Л) — log — = —0,322;

 

 

АД,

Я) =

/(А

Д) =

log -і- = 0,415;

АД, С) = АА Д) = - 0,585.

Вычислим средние количества информации при соответ­ ственно известных событиях А, 5, С и D:

/ , = /(Л, С) Р(С/А) + /(Л, D) P(D/A) -

=

 

log

4- -g- 1°S 4" =

0,029 (бит);

/ в =

/(С, Д) Р(С/В) + /(Д,

D) P(D/B) =

=

 

log- -§—!—|-

=

0,082 (бит);

/ с = ДС, Л) Р(А, С) + /(Д, С) Р(В, С) =

=

4 - l o g - f + 4 jog

=

0,051 (бит);

Д, = ДЛ, D ) P(A/D) + I{В,

D) P(BID) =

=

4

Jog 4

+ “5" loff "Г =

0>047 (бит)-

3 Зак. 2340.

 

 

 

 

33


Наконец,

I(Y,

Х) = Р(А,

С) /(А,

С) +

Р(А,

D )/(A

£>)•+

 

 

+ Р(В,

D) І(В,

D) -I- />(£, С) /(5,

С)

=

 

о

.

о

8

log

4

_2

log

+

8

log

3

= Х

10^ — -

 

5

+1 8

4Ѵ"Ь 3

 

 

=0,049 (бит).

§4. Относительная энтропия и количество информации

До сих пор понятие энтропии применялось к дискрет­ ным объектам произвольного вида, имеющим конечное (счетное) множество состояний. Однако на практике го­ раздо чаще встречаются непрерывные объекты. Так как понятие непрерывности применимо только к количест­ вам, то мы будем говорить о непрерывных случайных ве­ личинах.

Пусть непрерывная случайная величина X задана плотностью распределения вероятности іѵ (х) на конеч­ ном или бесконечном интервале ее возможных значений.. По определению, іи(х) пропорциональна вероятности'по­ пасть случайной величине X в достаточно малый интер­ вал около точки х:

Р(х <

X < X -f А я) =

w(x) А X.

Разбив точками

х _ и Л'о, Х\, ...,

.ѵ,*, ... весь интервал

(— оо, оо) возможных значений X на счетное множество

отрезков одинаковой длины Ая, мы от непрерывной слу­

чайной величины X перейдем

к ее оценке— дискретной

случайной величине X', которая тем точнее описывает

величину X, чем меньше шаг разбиения А х. Поэтому эн­

тропия дискретной случайной величины А7' .

со

 

Н(Х') = ~ У

P(*i)logP(Jfi).

1= — со

 

Подставив сюда значение P ( x i ) = w ( x i) А х, получим

 

 

 

 

со

Н( Х) = lim

Н( Х') =

lim

і —

"V w(xi)Ax log [ш(я7 )Дя:]

Д .ѵ->0

 

Д л ' ^ 0

. * " 1

 

 

 

/ =

оо

=

Нт

ОО

w(X[) logw(Xi) А X ■+

У

 

Д.г-.о

( = ' 'со

 

 

34

 

 

 

 

*