Файл: Бовбель, Е. И. Элементы теории информации.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2024

Просмотров: 66

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

 

 

 

 

Т а б л и ц а

9

пв

Г *А

 

РМ,

пА

1

Чѵі

 

20

0

1

0.000001

 

19

1

20

 

0.000019

 

18

2

190

0,00018

 

17

3

1140

 

0,0011 '

 

16

4

4815

 

0.005

 

15

5

15504

 

0,015

 

14

6

38760

 

0,037

 

13

7

77520

 

0,074

 

12

8

125970

 

0,120

 

11

* 9

167960

 

0,160

 

10

10

184756

 

0,176

 

9

11 -

167960

 

0,160.

 

8

12

125970

 

0,120

 

7

13

77520

 

0,074

 

 

6

14

38760

0,037

 

 

5

15

15504

0,015

 

 

А

16

4845

 

0,005

 

 

3

17

1140

 

0,0011

 

9

18

190

 

0,00018

 

1 *

19

20

 

0,000019

 

0

20

1

0,000001

—■

 

 

 

 

.1

---

Из таблицы видно, что'в 184756 последовательностях из 1048476 всех возможных символы А и В появляются с равной вероятностью (по 10 символов). С небольшой ошибкой к высоковероятной (типичные последовательно­ сти) группе можно отнести последовательности под номе­ рами 9— 13, суммарная вероятность появления которых равна 0,736.

3-й с л уч а й. Аналогично табл. 9 заполнена табл. 10 для случая Л4 = 30. Можно предположить, что при возра­ стании М на выходе источника все чаще будут появляться последовательности, в которых число символов А и В бу­ дет одинаковым, а суммарная вероятность нетипичных последовательностей как угодно мала.

Задана 3. Доказать теорему 1 для эргодического ис­ точника, у которого вероятностные связи между символа­

ми отсутствуют.

источник вырабатыва­

Д о к а з а т е л ь с т в о . Пусть

ет п различных символов х\, х2,

хп с соответственными

вероятностями

 

Р(Х\). Р(*г), ....

Р (хп).

56


На основании теоремы Бернулли, в достаточно длин­ ной последовательности (длиной М) с вероятностью,, близкой к единице, число символов Х\ равно МР(хі), чи­ сло символов х2 равно МР(х2) и т. д. Следовательно, ти­ пичные последовательности имеют вероятности, близкие к

P(c)SÉ [/5(а-,)]л,Я('',).[Р(-А'2)]'ѴІР(д'з) ... [Р (*„)]ИР(Ч

Логарифмируя последнее равенство, получаем

- log Р(с) ^

-

Ж V P(xt) log P(xi) = МЩХ),

 

 

 

 

i= 1

 

 

 

 

 

 

Таблица 10

п-А

 

пв

 

ПА

 

 

Чи

30

 

"0

 

1

0,931322-10-»

29

 

1

 

30

0,279396-ІО"7

28

 

2

 

435

0,405125-10-« .

27

 

3

 

4060

0,378117 -ІО"«

26

 

4

 

27405

0,255229- ІО"-1

25

 

5'

 

152506

0,132719-Ю"3

24

 

6

 

893775

0,552996-Ю-з

23

,

7

 

2035800

0,189598-ІО"2

22

8

 

5852925

0,545093-ІО"2 .

21

 

9

 

14307182

0,102765-ІО*1

20

 

10

 

30045015

0,279816-ю-1

19

 

11

 

54627300

0,508756-ІО'1

18

 

12

 

86493225

0,805530-10-1

17

 

13

 

119759850

0,111535-10°

16

 

14

 

145422675

0,135435-10°

15

 

15

 

155117518

0,14446410°

14

 

16

145422675

0,135435-10°

13

 

17

119759850

0,111535-10°

12

 

18

 

86493225

0,805530ІО'1

11

 

19

 

54627300

0,508756-ІО’1

10

 

20

 

30045015

0,279816ІО'1

9

 

21

 

14307182

0,102765-10-1

8

 

22

 

5852925

0,545093-'10-2

7

 

23

 

2035800

0,189598-10-2

6

 

24

 

593775

0,552996ІО’3

5

 

- 25

 

152506

0,132719-Ю-з

4

 

26

 

27405

0,255229-10-'

3

 

27

 

4060

0,378117-10-5

2

 

28

 

435

0,405125-10"°

1

 

29

 

30

0,279396-10"1

0

 

30

 

1

0,931322-10*°

57


откуда

)

что и доказывает теорему 1 в этом простейшем случае.

§ 3. Избыточность и поток информации источника сообщений

Как мы знаем, энтропия характеризует среднее коли­ чество информации, несомое одним символом источника. Она максимальна, когда символы вырабатываются источ­ ником с равной вероятностью. Если же некоторые симво­ лы появляются чаще других, энтропия уменьшается, а при появлении дополнительных вероятностных связей между символами становится еще меньшей. Чем меньше энтропия источника отличается от максимальной, тем ра­ циональнее он работает, тем большее количество инфор­ мации несут его символы.

Для сравнения

источников

по их

информативности

введем ’параметр,

называемый

и з б ы т о ч н о с т ь ю и

равный

 

 

 

 

^rnax ('^ )

 

 

 

н m ax

 

 

Источник, избыточность которого R = 0,

называют опти-

м а ль н ы м.

источники имеют избыточность R=?=0.

Все реальные

Предположим, что мы получили одно и то же количе­ ство информации /0 от реального и оптимального источ­ ников. Тогда число символов п, затраченных на передачи

этого количества информации /0

реальным

источником,

будет больше числа символов /гпііп

соответствующего ему

оптимального

источника.

В

самом

деле,

І0—пН(Х) =

= п mln^maxW.

ОТКуда

 

 

 

 

 

 

)

_

^min

^

*

 

 

^шах(А')

 

П

^

 

 

И

^tnin

П

-Из этих соотношений можно заключить, что избыточность увеличивает время передачи и поэтому нежелательна. Однако 'при передаче сообщений при наличии помех из-

58

г


быточность используется

для увеличения

помехозащи­

щенности передаваемых

сообщений. Простейшим видом

введения избыточности для борьбы с

шумами является

многократная передача одного и того же символа.

Не менее важной характеристикой источника сообще­

ний является п о т о к и и ф о р м а ц и и

(скорость выдачи

информации).

 

 

 

При работе источника

сообщений на его

выходе от­

дельные символы появляются через некоторые промежут­ ки времени; в этом смысле мы можем говорить о длитель­

ности отдельных символов. Если среднюю

длительность

одного символа обозначить

через < т> ,

то поток ин­

формации определится выражением

 

ЩХ) =

/-/(*)

 

< Т > ■

 

Очевидно, поток Информации зависит от количества р аз­ личных символов, вырабатываемых источником, их дли-

• телы-юсти и вероятностных свойств источника. К примеру, если длительности всех символов одинаковы и равны ^о, то < т > = т0 и поток информации максимален, ког­ да энтропия источника максимальна, а длительность минимальна.

. Задача 1. Считая, что среднее количество информации, несомое одной буквой русского смыслового текста, при­ мерно равно 2,5 бит, показать, что равномерный пятизнач­

ный код Бодо не является оптимальным для

передачи

русского текста.

различ­

Р е ш е н и е . Код Бодо составляется из двух

ных символов: х \— есть сигнал; х2— нет сигнала. Каждая кодовая комбинация содержит пять символов. Всего та­ ких комбинаций N = 25 = 32. (Если не различать буквы «е» и «ё», а также мягкий и твердый знаки, то в русском алфавите всего 31 буква; к ним нужно добавить еще про­ бел между словами, так что всего получается 32 сим­ вола.)

Максимальная энтропия источника, использующего для передачи русского алфавита пятизначный код Бодо, равна # max = log225 = 5 (бит). Избыточность такого представления сообщений источника с энтропией 2,5 бит (русского текста) R = ( 5—2,5) :5= 0,5. Таким образом, при передаче русского текста 50% сообщений Бодо явля­ ются лишними.

59