Файл: Бовбель, Е. И. Элементы теории информации.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2024

Просмотров: 63

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

сообщением, чтобы на входе линии связи кодовые симво­ лы встречались одинаково часто.

Задача 11. Для передачи 8 равновероятных

сообще­

ний используется двоичный код. Длительности

кодовых

символов одинаковы и равны 10“ Gс. Сообщения кодиру­

ются в соответствии с табл. 12.

 

 

 

 

Т а б л и ц а 12

Показать,

что вероятности по­

 

 

явления кодовых символов оди­

Сооб­

 

Сооб­

 

наковы.

Вычислить

скорость

Код

Код

передачи сообщений.

 

щение

щение

 

Р е ш е н и е. По формуле

*1

111

Хь

011

А'о

ПО

Xq

010

*3

101

 

001

-V»

100

*8

000

£

Р { хдМц

т = - ¥

-------------•

2

ңхл N

/=1

 

где Mfj— число кодовых символов уу

в і-й кодовой ком­

бинации;

— число всех

кодовых

символов в/-й кодо­

вой

комбинации; у і =

0;

у2= 1 ;

находим

вероятность

встретить единицу на входе линии связи:

 

 

 

 

 

0,125(34-2 + 2 + 1 4-2-М -И )

_

1

 

 

 

0,125(3 + 3+ 3+3 + 3 + 3 + 3+ 3)

2

Таким образом,

Р( 1) = Р { 0) = 1/2.

 

 

 

 

Скорость передачи найдем по формуле (3.21) преды­

дущей задачи:

 

 

 

 

 

 

 

 

 

 

 

2 — 106lo g 2 = 10б

(бпт/с).

 

 

Эта

скорость передачи

максимальна

(см.

замечание к

предыдущей задаче), т. е. І — С.

 

 

 

задачи изменим

Задача 12. В условиях предыдущей

вероятности появления сообщений:

 

 

 

 

 

Р(Хі) = Р(х2) =

0,25; Р(хъ) =

Р(х<) =0,125;

 

 

Р (х5) =

Р(х6) —Р ( х 7) =

Р (хв) =

0,0625,

оставив все остальное без изменений.

 

 

 

Р е ш е н и е .

По формуле (3.19)

предыдущей задачи

 

 

 

0,25-5+0,125-3 + 0,0625-4

__ 0 fiOE-

 

 

— 0,25-6+0,125-6+0,0625-12

 

 

 

 

Я(0) =

1—Р(1) =0,375.

 

 

70


Скорость передачи сообщений определим по формуле

7 = Н(Х)

<->

где < 0 > — средняя длительность сообщения:

< " > = 2

р (х ‘)= з ѵ

/=1

Так как энтропия источника сообщений

Н(Х) =» — V Р(хі) log P(x'i) = 2,75 (бит), 1-1

ТО

7 = ~О *0 — 0,917-10° = 917000 (бит/с).

Таким образом, скорость передачи сообщений уменьши­ лась с 106 бит/с до 917000 бит/с. Это произошло потому, что при кодировании мы не учитывали изменившуюся статистику сообщений. Как ее учесть, чтобы скорость пе­ редачи сообщений стала максимально возможной, пока­ жем в следующем параграфе.

§3. Экономное кодирование сообщений

вотсутствие шума

Под кодированием будем понимать представление а различных сообщений xt , выдаваемых источником, в не­ котором стандартном кодовом алфавите, содержащем т различных символов. Если т < п , каждому возможному сообщению источника необходимо ставить в соответствие некоторую последовательность символов кодового алфа­ вита, которую назовем к о д о в ы м с л о в о м.

Если среди кодовых слов, сопоставляемых п сообще­ ниям источника, нет одинаковых и ни одно более длинное кодовое слово не содержит в начале себя более короткое, такие кодовые слова назовем н е п е р е к р ы в а е м ы м и. Если кодовые слова непер,екрываемы, по произвольной по­ следовательности кодовых слов взаимнооднозначно выде: ляется соответствующая ей последовательность сообще­ ний источника. Другими словами, в отсутствие шумов взаимная однозначность операций кодирования и декоди­ рования достигается при условии неперекрываемости ко­ довых слов.

Операция кодирования тем более экономична, чем меньшей длины кодовые слова сопоставляются сообще­ ниям. Поэтому за характеристику экономичности кода примем среднюю длину кодового слова

L = 2 Ѵ-і Р(хі)> ■

/=1

где \}<і — длина кодового слова, сопоставляемая .ѵ/ сооб­ щению.

Общие положения теории информации позволяют ука­ зать оптимальные границы для средней длины L кодовых слов, которые ни при каком кодировании не могут быть уменьшены. Установим эти оптимальные границы для L из следующих соображений. Во-первых, количество ин­ формации, несомое кодовым словом, не должно быть меньше количества информации, содержащегося в соот­ ветствующем сообщешіи, иначе при кодировании будут происходить потери в передаваемой информации. Во-вто­ рых, кодирование будет тем более экономичным, чем большее количество информации будет содержать в себе каждый кодовый символ; это количество информации максимально, когда все кодовые символы равновероят­ ны, и равно logm. При этом і-е кодовое слово будет нести

количество информации,

равное

logm:

Таким образом,

 

 

 

— lo g Р(Х[)^Щ logm,

откуда

— log P(Xj)

 

>

(3.22)

 

log т

 

 

 

Умножив обе части последнего

равенства на Р(хі) и

просуммироівав по -всем і от 1 до п, получим

 

^min

Н{Х)

 

 

log т *

Так как правая часть неравенства (3.22), как правило, не является целым числом, для достижения знака равенст-. ва в нем (с учетом экономности кода) необходимо, чтобы

log P(Xj) "

+

1,

(3.23)

log т

 

72


где квадратными скобками обозначена целая часть числа, стоящего в них. Усредняя (3.23), получаем

- щ х у

LШІП< log т

Таким образом,

ЩХ) / /

. ^

н(Х)

 

(3.24)

log т ^

min ^

log т

'

 

Осталось, однако, невыясненным, будут ли кодовые слова, удовлетворяющие неравенствам (3.24), неперекрываемы. Поэтому докажем последнее неравенствострого. _

Теорема Крафта. Если.

\><п— длины кодовых

слов, соответствующих сообщениям х\, х2,

хп, то необ­

ходимым и достаточным условием существования иеперекрываемых кодовых слов с заданными-длинами является выполнение неравенства

 

 

У, nC*k < 1 ,

 

 

(3.25>

 

 

k=i

X

 

 

 

где m — число

различных символов

в

кодовом алфа­

вите.

 

 

 

что

если

кодовые-

Н е о б х о д и м о с т ь . Докажем,

слова с заданными длинами

[xt, ...,

неперекрываемьц

то неравенство

(3.25) справедливо. Для этого обозначим

через К число кодовых слов

(среди заданных)

длиной в-

k символов.

 

 

 

 

 

І і < т \

 

 

 

 

 

/2 <

(пь— 1\) т — т2 Іхт\

 

 

 

h <

\(т

/2] т = пь3 Ілт2 12пь\

-(3.26)

./г</7гг — lxmr 1 — l2mr 2 — ... — /г_і/7г.

Эти условия являются необходимыми и достаточными для неперекрываемости кодовых слов. Разделив послед­ нее неравенство на тг, получим

2 k m ~ k < ! .

(3.27)'


Распишем сумму,

стоящую в левой

части

неравенства

(3.27):

 

 

 

 

 

 

 

 

2 1кп Г к = Іігпх+

l2m2 -f- ... -f lrmr =

 

 

k=l

 

 

 

 

 

 

= w -f" • • • Ч- ^ “b in2-f*

... -)- ш2 -p .• •

rnr —(—... —|—tnr =

'------------------ -

4

s

'

4

.I—V

/

11

раз

/2

раз

 

 

lr раз

 

 

 

= 2

т~"к

 

 

(3.28)

г

 

/ѵ*=

1

 

 

 

 

4 = п — число кодовых слов (в последней сум-

так как 2

k=\

 

 

 

 

 

(3.28)

ме возможны одинаковые слагаемые). Подставив

в (3.27), получим

 

 

 

 

 

 

 

 

V m-'uk < 1 ,

 

 

(3.29)

 

 

k—\

 

 

 

 

 

что и требовалось доказать.

 

 

 

 

Д о с т а т о ч н о с т ь .

Дано неравенство

(3.25);

требу­

ется доказать, что всегда можно найти кодовые слова с длинами [аь которые неперекрываемы.

Легко перейти от неравенства (3.29) к неравенству (3.27). Фиксируя в (3.27) верхний предел суммы /*= 1, по­

лучаем /і//г_1< 1 или

При /*=2 из (3.27) получим

второе неравенство (3.26):

 

Ілт~{ + 12т~2< 1

или

U К гіі2 — l\tn = т(т — /і).

Аналогично получим остальные неравенства (3.26), кото­ рые указывают на неперекрываемость заданных кодовых слов.

Теорема Шеннона.

При кодировании сообщений хІ5

х2, .... х п в алфавите,

насчитывающем т символов, при

условии отсутствия шумов, средняя длина кодового сло­ ва не может быть меньше, чем Н(X)/log т, где Н(Х) — энтропия сообщений. Если вероятности сообщений не яв­ ляются целочисленными отрицательными степенями числа т, точное достижение указанной границы невозможно, но при кодировании достаточно длинными группами к этой границе можно сколь угодно приблизиться.

74


Д о к а з а т е л ь с т в о . Так как для любых двух рас­ пределений вероятностей р(хк ) и q(xk) выполняется не­ равенство

(3.30)

k=i

то, взяв в качестве

 

п

'j-, І

 

 

V

т

 

получим из (3.30):

j= 1

 

 

 

 

п

 

п

///. '4

2 р{Хк) Іоgp{xk).<C— 2

р Ы log-^

/г=1

 

Л=1

!1/

 

 

 

у=1

/J

 

//

 

= log 2

"г ”'/ + 1о^ т

!х* =

/=1

пг

/е==1

 

=

+ L log т.

log V

У=і В правой части последнего равенства под знаком лога­

рифма стоит сумма, которая на основании (3.25) меньше единицы. Поэтому

H(X)^L log in

или

Н( X)

log т ’

Если вероятности появления сообщений являются цело-. численными отрицательными степенями числа т, т. е.

Р(хк)

= т ,’7'1

(3.31)

энтропия таких сообщений

 

 

п

 

log Р{хк) — — ^

птГ^ь log m~v'b=L login,

/ѵ’ = 1

k=i

 

откуда

П(Х)

 

J

(3.32)

~~

log m *

 

75