Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 103

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Пример 2. Построим оптимальный код сообщения, состоящего из восьми рав­ новероятных букв.

Так как вероятности данного ансамбля сообщений равны pi = р2 = ... = р8 =

с=2~3и порядок их расположения не играет роли,то расположим их так, как показано в табл. 11. Затем разбиваем данное множество сообщений на две равновероятные группы. Первой группе в качестве первого символа кодовых слов присваиваем О, а второй — 1. Во второй колонке табл. 11 записываем четыре нуля и четыре единицы. После чего разбиваем каждую из групп еще на две равновероятные подгруппы. За­ тем каждой первой подгруппе присваиваем 0, а второй — 1 и записываем в третью колонку табл. 11. Далее, каждую из четырех подгрупп разбиваем на две равновероят­ ные части и первой из них присваиваем 0, а второй — 1, Таким образом, в четзертой колонке табл. 11 появятся значения третьего символа кодовых слов.

Согласно основной теореме кодирования среднее число двоичных знаков на букву кода в достаточно длинной последовательности кодов равно энтропии источни-

 

 

 

Таблица 11

Построение оптимального кода для сообщения, состоящего из восьми

равновероятных букв

 

 

 

 

Кодовое слово, полученное после разбиения

Буква

 

 

 

 

первого

второго

третьего

к

0

0

0

А»

0

0

1

Аз

а

1

0

А4

0

1

1

а5

1

0

0

Ае

1

■ 0

1

А?

1

1

0

а8

1

1

1

ка сообщений. Для рассматриваемого примера энтропия источника сообщений

Н = log2 N = log2 8 = 3 бит/символ,

а среднее число двоичных знаков на букву кода

N

1 = 2 / (0Рг = 0 ,1 2 5 - 3 .8 = 3 ,

где 1ц) — длина i-й кодовой комбинации; рг — вероятность появления t-ro символа комбинации длиной в /(*>

' Таким образом, 11 L, т. е. код является оптимальным для данного ансамбля сообщении.

Вывод: для ансамблей равновероятных сообщений оптимальным является равномерный код.

74


Пример 3. Построим оптимальный код сообщения, в котором вероятности появ­

ления букв подчиняются закону

т. е. буквы данного сообщения могут быть

расположены таким образом, что вероятность появления каждой из них будет в два раза меньше вероятности появления последующей.

Таблица 12

Построение оптимального кода для сообщения, состоящего из неравновероятных букв

Вероятность Буква появления

буквы

Кодовое слово после разбиения

перво­ го

второ­ го

треть­ его

чет­ вер­ того

пято­ го

шес­ того

WPi

 

 

Код, в котором вероятности появления букв

 

 

 

подчиняются закону pi =

(ту)

;

^Pi

 

1

 

 

1/2

0

 

 

 

_

1

0,5

X

'

1/4

1

0

 

:—

2

0,5

 

 

1/8

1

1

 

0

3

0,375

X

 

1/16

1

1

 

1

0

4

0,25

Л

 

1/32

1

1

 

1

1

0

 

5

0,15625

Ав

 

1/64

1

1

 

1

1

 

 

0

6

0,09175

 

 

Код;

в котором

вероятности появления букв

 

 

 

подчиняются закону р; =

(тр)

;

2pj

=

1

 

 

v

1/4

0

 

0

 

 

 

 

 

2

0,5

 

 

1/4

0

 

1

 

2

0,5

 

 

1/8

1

 

0

0

3

0,375

 

 

1/8

1

 

0

1

3

0,375

 

 

1/16

г

 

1

0

0

 

4.

0,25

 

 

1/16

1

 

1

0

1

 

4

0,25

 

 

1/16

1

 

1

1

0

 

4

0,25

 

 

1/16

1

 

1

1

1

 

 

4

0,25

 

 

Код с произвольным распределением

вероятностей

 

 

 

 

 

появления букв

 

 

 

 

 

 

 

0,5

0

 

0

 

 

 

 

 

1

0,5

 

 

0,25

1

 

 

2

0,5

 

 

0,098

1

 

1

0

0

 

4

0,392

 

 

0,052

1

 

1

0

1

 

4

0,208

 

 

0,04

1

 

1

1

0

 

4

0,16

 

 

0,03

1

 

1

1

1

0

5

0,15

 

 

0,19

1

 

1

1

1

 

 

0

6

0,114

 

 

0,011

1

 

1

1

1

 

 

1

6

0,66

75


Построение ведем по общей методике. Оптимальный код для данных условий представлен в табл. 12. Среднее число двоичных знаков на букву кода

N

(0 pi =

0,5 + 0,5 + 0,375 + 0,25 + 0,15625 + 0,09175 = 1,8730,

L = ' £ l

I

 

 

 

 

а энтропия источника

сообщений

 

 

 

Н — (Р\ log3 Pi + р2 log2 р2 +

• • • +

ре log2 р„) =

= 0,5 +

0,5 +

0,375 + 0,2487 + 0,1554 +

0,0909

= 1,8700 бит/символ.

Некоторое расхождение в тысячных объясняется тем, что в данном коде. 2 р + 1,

i

т. е. данный ансамбль сообщений не является полной группой событий (2pi яз 0,984). Однако чем длиннее будет выбранный ряд значений Л,-, тем ближе 2р£ будет к 1, тем ближе будет значение L к энтропии источника сообщений.

Таким образом, Н фактически равно L, т. е. код является оптимальным для дан­ ного ансамбля сообщений.

Вывод: Число элементарных символов на букву сообщения с распре­

делением вероятностей появления букв по закону Р{ = (-^-) возрастает в порядке убывания вероятностей как натуральный ряд чисел (1, 2,

3,..., М),

если i = l , 2, 3, ..., М.

Код,

рассмотренный в данном примере, удобен при декодировании,

так как каждое кодовое слово заканчивается нулем, который отделя­ ет кодовые слова друг от друга.

Пример 4.

Построим оптимальный код сообщения, в котором вероятности появ­

ления букв подчиняются закону рг = 2~ ni, но 2рг =

1.

 

 

Код, удовлетворяющий данным условиям, строим по общей методике. Оптималь­

ный код представлен в табл. 12. Среднее число двоичных

знаков на букву

кода и

энтропия источника сообщений соответственно равны:

 

 

N

 

 

 

 

 

L = 2

I W Pi = 2 • °’5 + '2 • 0,375 + 4 • 0,25 =

2,75; бит/символ.

 

i

N

 

 

 

 

 

 

 

 

 

Н — — 2i Pi l°g2 Pi =

2 • 0,85 log2 0,85 +

2-0,125 log2 0,125 +

 

+ 4 • 0,0625 log2 0,0625 =

1 + 2 • 0,375 + 4 • 0,25 = 2,75 бит/символ.

Таким образом, H = L, так как удовлетворяется условие pt = 2 ~ ‘Ulf

где п

целое число, а

2 р; — 1.

 

 

 

 

 

i

 

 

 

 

Вывод. Кодовые слова одинаковой вероятности появления имеют равную длину.

На основании рассмотренных выше примеров, можно сказать, что оптимальными будут те коды, у которых средняя длина кодовой комбинации при заданном основании кода является минимальной и мало отличается от энтропии Источника сообщений. Коды с неравно­ мерным распределением символов, имеющие минимальную среднюю длину кодового слова, называются оптимальными неравномерными ко­ дами (ОНК).Максимально эффективными будут те ОНК, у которых

N

logs т 2 / ^ ( 0 = /ср = Я,

76


где т и N — символы соответственно вторичного и первичного алфа­ витов.

Для двоичных кодов

 

 

N

N

 

 

 

 

 

2 I (0 Pi =

— h

 

Pi log» Pi,

(54)

 

 

г—1

t=l

 

 

так

как log2 2

1. Очевидно,

что

равенство (54)

удовлетворяется

. при

условии

 

 

 

 

 

/(l) = — l0g2 pi = l0ga 1

Pi

Величина /,• точно равна Н, если pt == 2~"г, где п любое число. Если п не является целым числом для всех значений букв первичного алфавита, то /ср > Я и согласно основной теореме'кодирования при­ ближается к энтропии источника сообщений по мере укрупнения кодируемых блоков.

Эффективность ОНК оценивают при помощи коэффициента ста­ тистического сжатия

______ Iog2 N_____

Ясс =

ср

log2 т 2 Pih

i=1

который характеризует уменьшение количества двоичных знаков на символ сообщения при применении ОНК по сравнению с применением методов нестатистического кодирования, и коэффициента относитель­ ной эффективности

к -

н

Л о .э —

1

" >

Чр

который показывает, насколько используется статистическая избы­ точность передаваемого сообщения.

Для наиболее общего случая неравновероятных и взаимонезависимых символов 1

 

 

 

 

N

 

 

If

_

 

2 Pi 1°8з Pi

 

 

i—1

 

Л о .э

 

дг

 

 

 

logs т 2 P ih)

 

 

 

 

 

i—l

 

Пример 5.

Построим ОНК для

передачи сообщений, в которых вероятности

появления букв

первичного алфавита

равны: Ai =

0,5; Аг — 0,25; Аз = 0,098;

Л4 = 0,052; Аь — 0,04; А е — 0,03; Л7 =

0,019; Л8 = 0,011; и определим коэффициен­

ты статистического сжатия и относительной эффективности.

Оптимальный код для алфавитов с произвольным распределением вероятностей появления букв в текстах строится согласно общей методике. Перед построением ко­ да следует убедиться, что сумма вероятностей появления отдельных букв данного алфавита равна единице или близка к ней (в случае, если вероятности появления букв

1 Для случая неравновероятных и взаимозависимых символов

н = ~ 2

2 PiP Ш ай ^ёзР Ф раф

<

/

77


алфавита были получены в результате статистических исследований). Затем символы алфавита располагают в порядке убывания вероятностей и производят последова­ тельные разбиения на группы с возможно близкими суммарными значениями вероят­ ностей, присваивая каждый раз верхней группе символов значение 0, а нижней — 1.

Построение кода для условий, заданных в данном примере, представлено в табл. 12. Определяем Н, Ксс и К03‘-

 

 

8

 

 

 

 

 

 

Н =

2 Pi l°g-2Pi =

— (0,5 log2 0,5 + 0,25 log2 0,25 + 0,098 ■log2 0,098 +

 

 

i=1

 

 

 

 

 

 

+

0,052 log2 0,052 +

0,04 log2 0,04 +

0,03 iog2 0,03 +

0,019 log2 0,019 +

+

0,011 log20,011) =

0,5 +

0,5 +

0,3284 + 0,2217 +

0,1875 + 0,1517 -|-

 

 

-j- 0,1086 +

0,0715 =

2,0676 бит/символ;

 

 

 

B max

 

Iog2 8

 

 

 

 

 

CX_

*cp

8

0

 

 

 

 

 

 

 

2

 

■0,5• 1 +

0,25• 2 + 0,098■4 + 0,052 • 4 +

0,04 • 4 +

0,03 • 5 + 0,019• 6 4* 0,011 • 6

 

 

К

 

 

2,0676

0,98.

 

 

 

 

 

2,09

 

В предыдущей теме был математически обоснован тот факт, что средняя длина кодового слова передаваемого сообщения по мере укрупнения кодируемых блоков будет уменьшаться, а код — прибли­ жаться к оптимальному. Попробуем теперь уяснить это.

Предположим, что кодируемое сообщение разделено на очень длинные группы символов. Тогда от символов предыдущего блока бу­ дут зависеть только несколько начальных символов последующего блока, и эта зависимость будет уменьшаться по мере удаления символа от начала блока.Чем больше символов в блоке, тем больше будет символов, которые не зависят от предыдущих блоков. Происходит декорреляция символов. Устраняется взаимозависимость. При этом растет энтропия сообщения, а с ростом энтропии увеличивается коэф-

н

фициент сжатия р = — (см. тему 6), уменьшается избыточность

•“ max

D = 1 — р, код приближается к оптимальному. В случае декоррелированных сообщений значительноупрощается вычисление энтропии:

N

Н = — 2 p(Bi)log2p(Bj) бит/блок,

i=1

'

где р (В,) — вероятность появления одного

из блоков. Энтропия на

символ

 

1"

Н= — -дг 2 Р iBi) log2 Р (Bi) бит]символ,

/=1

где N — число символов в блоке.

78