ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 24.10.2024
Просмотров: 66
Скачиваний: 0
|
|
|
|
Т а б л и ц а |
9 |
|
"л |
пв |
Г *А |
|
РМ, |
пА |
1 |
Чѵі |
|
|||||
20 |
0 |
1 |
0.000001 |
|
||
19 |
1 |
20 |
|
0.000019 |
|
|
18 |
2 |
190 |
0,00018 |
|
||
17 |
3 |
1140 |
|
0,0011 ' |
|
|
16 |
4 |
4815 |
|
0.005 |
|
|
15 |
5 |
15504 |
|
0,015 |
|
|
14 |
6 |
38760 |
|
0,037 |
|
|
13 |
7 |
77520 |
|
0,074 |
|
|
12 |
8 |
125970 |
|
0,120 |
|
|
11 |
* 9 |
167960 |
|
0,160 |
|
|
10 |
10 |
184756 |
|
0,176 |
|
|
9 |
11 - |
167960 |
|
0,160. |
|
|
8 |
12 |
125970 |
|
0,120 |
|
|
7 |
13 |
77520 |
|
0,074 |
|
|
6 |
14 |
38760 |
• |
0,037 |
|
|
5 |
15 |
15504 |
0,015 |
|
|
|
А |
16 |
4845 |
|
0,005 |
|
|
3 |
17 |
1140 |
|
0,0011 |
|
|
9 |
18 |
190 |
|
0,00018 |
|
|
1 * |
19 |
20 |
|
0,000019 |
|
|
0 |
20 |
1 |
0,000001 |
—■ |
||
|
|
|
|
—.1 |
--- |
Из таблицы видно, что'в 184756 последовательностях из 1048476 всех возможных символы А и В появляются с равной вероятностью (по 10 символов). С небольшой ошибкой к высоковероятной (типичные последовательно сти) группе можно отнести последовательности под номе рами 9— 13, суммарная вероятность появления которых равна 0,736.
3-й с л уч а й. Аналогично табл. 9 заполнена табл. 10 для случая Л4 = 30. Можно предположить, что при возра стании М на выходе источника все чаще будут появляться последовательности, в которых число символов А и В бу дет одинаковым, а суммарная вероятность нетипичных последовательностей как угодно мала.
Задана 3. Доказать теорему 1 для эргодического ис точника, у которого вероятностные связи между символа
ми отсутствуют. |
источник вырабатыва |
Д о к а з а т е л ь с т в о . Пусть |
|
ет п различных символов х\, х2, |
хп с соответственными |
вероятностями |
|
Р(Х\). Р(*г), .... |
Р (хп). |
56
На основании теоремы Бернулли, в достаточно длин ной последовательности (длиной М) с вероятностью,, близкой к единице, число символов Х\ равно МР(хі), чи сло символов х2 равно МР(х2) и т. д. Следовательно, ти пичные последовательности имеют вероятности, близкие к
P(c)SÉ [/5(а-,)]л,Я('',).[Р(-А'2)]'ѴІР(д'з) ... [Р (*„)]ИР(Ч
Логарифмируя последнее равенство, получаем
- log Р(с) ^ |
- |
Ж V P(xt) log P(xi) = МЩХ), |
|||
|
|
|
|
i= 1 |
|
|
|
|
|
|
Таблица 10 |
п-А |
|
пв |
|
^А |
ПА |
|
|
Чи |
|||
30 |
|
"0 |
|
1 |
0,931322-10-» |
29 |
|
1 |
|
30 |
0,279396-ІО"7 |
28 |
|
2 |
|
435 |
0,405125-10-« . |
27 |
|
3 |
|
4060 |
0,378117 -ІО"« |
26 |
|
4 |
|
27405 |
0,255229- ІО"-1 |
25 |
|
5' |
|
152506 |
0,132719-Ю"3 |
24 |
|
6 |
|
893775 |
0,552996-Ю-з |
23 |
, |
7 |
|
2035800 |
0,189598-ІО"2 |
22 |
8 |
|
5852925 |
0,545093-ІО"2 . |
|
21 |
|
9 |
|
14307182 |
0,102765-ІО*1 |
20 |
|
10 |
|
30045015 |
0,279816-ю-1 |
19 |
|
11 |
|
54627300 |
0,508756-ІО'1 |
18 |
|
12 |
|
86493225 |
0,805530-10-1 |
17 |
|
13 |
|
119759850 |
0,111535-10° |
16 |
|
14 |
|
145422675 |
0,135435-10° |
15 |
|
15 |
|
155117518 |
0,144464•10° |
14 |
|
16 |
• |
145422675 |
0,135435-10° |
13 |
|
17 |
119759850 |
0,111535-10° |
|
12 |
|
18 |
|
86493225 |
0,805530ІО'1 |
11 |
|
19 |
|
54627300 |
0,508756-ІО’1 |
10 |
|
20 |
|
30045015 |
0,279816ІО'1 |
9 |
|
21 |
|
14307182 |
0,102765-10-1 |
8 |
|
22 |
|
5852925 |
0,545093-'10-2 |
7 |
|
23 |
|
2035800 |
0,189598-10-2 |
6 |
|
24 |
|
593775 |
0,552996ІО’3 |
5 |
|
- 25 |
|
152506 |
0,132719-Ю-з |
4 |
|
26 |
|
27405 |
0,255229-10-' |
3 |
|
27 |
|
4060 |
0,378117-10-5 |
2 |
|
28 |
|
435 |
0,405125-10"° |
1 |
|
29 |
|
30 |
0,279396-10"1 |
0 |
|
30 |
|
1 |
0,931322-10*° |
57
откуда
)
что и доказывает теорему 1 в этом простейшем случае.
§ 3. Избыточность и поток информации источника сообщений
Как мы знаем, энтропия характеризует среднее коли чество информации, несомое одним символом источника. Она максимальна, когда символы вырабатываются источ ником с равной вероятностью. Если же некоторые симво лы появляются чаще других, энтропия уменьшается, а при появлении дополнительных вероятностных связей между символами становится еще меньшей. Чем меньше энтропия источника отличается от максимальной, тем ра циональнее он работает, тем большее количество инфор мации несут его символы.
Для сравнения |
источников |
по их |
информативности |
введем ’параметр, |
называемый |
и з б ы т о ч н о с т ь ю и |
|
равный |
|
|
|
|
^rnax ('^ ) |
|
|
|
н m ax |
|
|
Источник, избыточность которого R = 0, |
называют опти- |
||
м а ль н ы м. |
источники имеют избыточность R=?=0. |
||
Все реальные |
Предположим, что мы получили одно и то же количе ство информации /0 от реального и оптимального источ ников. Тогда число символов п, затраченных на передачи
этого количества информации /0 |
реальным |
источником, |
||||
будет больше числа символов /гпііп |
соответствующего ему |
|||||
оптимального |
источника. |
В |
самом |
деле, |
І0—пН(Х) = |
|
= п mln^maxW. |
ОТКуда |
|
|
|
|
|
|
) |
_ |
^min |
^ |
* |
|
|
^шах(А') |
|
П |
^ |
|
|
И
^tnin
П
-Из этих соотношений можно заключить, что избыточность увеличивает время передачи и поэтому нежелательна. Однако 'при передаче сообщений при наличии помех из-
58
г
быточность используется |
для увеличения |
помехозащи |
|
щенности передаваемых |
сообщений. Простейшим видом |
||
введения избыточности для борьбы с |
шумами является |
||
многократная передача одного и того же символа. |
|||
Не менее важной характеристикой источника сообще |
|||
ний является п о т о к и и ф о р м а ц и и |
(скорость выдачи |
||
информации). |
|
|
|
При работе источника |
сообщений на его |
выходе от |
дельные символы появляются через некоторые промежут ки времени; в этом смысле мы можем говорить о длитель
ности отдельных символов. Если среднюю |
длительность |
|
одного символа обозначить |
через < т> , |
то поток ин |
формации определится выражением |
|
|
ЩХ) = |
/-/(*) |
|
< Т > ■ |
|
Очевидно, поток Информации зависит от количества р аз личных символов, вырабатываемых источником, их дли-
• телы-юсти и вероятностных свойств источника. К примеру, если длительности всех символов одинаковы и равны ^о, то < т > = т0 и поток информации максимален, ког да энтропия источника максимальна, а длительность минимальна.
. Задача 1. Считая, что среднее количество информации, несомое одной буквой русского смыслового текста, при мерно равно 2,5 бит, показать, что равномерный пятизнач
ный код Бодо не является оптимальным для |
передачи |
русского текста. |
различ |
Р е ш е н и е . Код Бодо составляется из двух |
ных символов: х \— есть сигнал; х2— нет сигнала. Каждая кодовая комбинация содержит пять символов. Всего та ких комбинаций N = 25 = 32. (Если не различать буквы «е» и «ё», а также мягкий и твердый знаки, то в русском алфавите всего 31 буква; к ним нужно добавить еще про бел между словами, так что всего получается 32 сим вола.)
Максимальная энтропия источника, использующего для передачи русского алфавита пятизначный код Бодо, равна # max = log225 = 5 (бит). Избыточность такого представления сообщений источника с энтропией 2,5 бит (русского текста) R = ( 5—2,5) :5= 0,5. Таким образом, при передаче русского текста 50% сообщений Бодо явля ются лишними.
59