Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.10.2024
Просмотров: 103
Скачиваний: 0
Пример 2. Построим оптимальный код сообщения, состоящего из восьми рав новероятных букв.
Так как вероятности данного ансамбля сообщений равны pi = р2 = ... = р8 =
с=2~3и порядок их расположения не играет роли,то расположим их так, как показано в табл. 11. Затем разбиваем данное множество сообщений на две равновероятные группы. Первой группе в качестве первого символа кодовых слов присваиваем О, а второй — 1. Во второй колонке табл. 11 записываем четыре нуля и четыре единицы. После чего разбиваем каждую из групп еще на две равновероятные подгруппы. За тем каждой первой подгруппе присваиваем 0, а второй — 1 и записываем в третью колонку табл. 11. Далее, каждую из четырех подгрупп разбиваем на две равновероят ные части и первой из них присваиваем 0, а второй — 1, Таким образом, в четзертой колонке табл. 11 появятся значения третьего символа кодовых слов.
Согласно основной теореме кодирования среднее число двоичных знаков на букву кода в достаточно длинной последовательности кодов равно энтропии источни-
|
|
|
Таблица 11 |
Построение оптимального кода для сообщения, состоящего из восьми |
|||
равновероятных букв |
|
|
|
|
Кодовое слово, полученное после разбиения |
||
Буква |
|
|
|
|
первого |
второго |
третьего |
к |
0 |
0 |
0 |
А» |
0 |
0 |
1 |
Аз |
а |
1 |
0 |
А4 |
0 |
1 |
1 |
а5 |
1 |
0 |
0 |
Ае |
1 |
■ 0 |
1 |
А? |
1 |
1 |
0 |
а8 |
1 |
1 |
1 |
ка сообщений. Для рассматриваемого примера энтропия источника сообщений
Н = log2 N = log2 8 = 3 бит/символ,
а среднее число двоичных знаков на букву кода
N
1 = 2 / (0Рг = 0 ,1 2 5 - 3 .8 = 3 ,
где 1ц) — длина i-й кодовой комбинации; рг — вероятность появления t-ro символа комбинации длиной в /(*>
' Таким образом, 11 L, т. е. код является оптимальным для данного ансамбля сообщении.
Вывод: для ансамблей равновероятных сообщений оптимальным является равномерный код.
74
Пример 3. Построим оптимальный код сообщения, в котором вероятности появ
ления букв подчиняются закону |
т. е. буквы данного сообщения могут быть |
расположены таким образом, что вероятность появления каждой из них будет в два раза меньше вероятности появления последующей.
Таблица 12
Построение оптимального кода для сообщения, состоящего из неравновероятных букв
Вероятность Буква появления
буквы
Кодовое слово после разбиения
перво го |
второ го |
треть его |
чет вер того |
пято го |
шес того |
WPi
|
|
Код, в котором вероятности появления букв |
|
|||||||||
|
|
подчиняются закону pi = |
(ту) |
; |
^Pi |
|
1 |
|
||||
|
• |
1/2 |
0 |
|
|
|
_ |
— |
— |
1 |
0,5 |
|
X |
' |
1/4 |
1 |
0 |
|
:— |
— |
2 |
0,5 |
|||
|
|
1/8 |
1 |
1 |
|
0 |
— |
— |
— |
3 |
0,375 |
|
X |
|
1/16 |
1 |
1 |
|
1 |
0 |
— |
— |
4 |
0,25 |
|
Л |
|
1/32 |
1 |
1 |
|
1 |
1 |
0 |
|
— |
5 |
0,15625 |
Ав |
|
1/64 |
1 |
1 |
|
1 |
1 |
|
|
0 |
6 |
0,09175 |
|
|
Код; |
в котором |
вероятности появления букв |
|
|||||||
|
|
подчиняются закону р; = |
(тр) |
; |
2pj |
= |
1 |
|
||||
|
v |
1/4 |
0 |
|
0 |
|
|
|
|
|
2 |
0,5 |
|
|
1/4 |
0 |
|
1 |
— |
— |
— |
|
— |
2 |
0,5 |
|
|
1/8 |
1 |
|
0 |
0 |
— |
— |
— |
3 |
0,375 |
|
|
|
1/8 |
1 |
|
0 |
1 |
— |
— |
— |
3 |
0,375 |
|
|
|
1/16 |
г |
|
1 |
0 |
0 |
— |
|
— |
4. |
0,25 |
|
|
1/16 |
1 |
|
1 |
0 |
1 |
— |
|
— |
4 |
0,25 |
|
|
1/16 |
1 |
|
1 |
1 |
0 |
— |
|
— |
4 |
0,25 |
|
|
1/16 |
1 |
|
1 |
1 |
1 |
|
|
— |
4 |
0,25 |
|
|
Код с произвольным распределением |
вероятностей |
|
||||||||
|
|
|
|
появления букв |
|
|
|
|
|
|||
|
|
0,5 |
0 |
|
0 |
|
|
|
|
|
1 |
0,5 |
|
|
0,25 |
1 |
|
— |
— |
— |
|
— |
2 |
0,5 |
|
|
|
0,098 |
1 |
|
1 |
0 |
0 |
— |
|
— |
4 |
0,392 |
|
|
0,052 |
1 |
|
1 |
0 |
1 |
— |
|
— |
4 |
0,208 |
|
|
0,04 |
1 |
|
1 |
1 |
0 |
— |
|
— |
4 |
0,16 |
|
|
0,03 |
1 |
|
1 |
1 |
1 |
0 |
— |
5 |
0,15 |
|
|
|
0,19 |
1 |
|
1 |
1 |
1 |
|
|
0 |
6 |
0,114 |
|
|
0,011 |
1 |
|
1 |
1 |
1 |
|
|
1 |
6 |
0,66 |
75
Построение ведем по общей методике. Оптимальный код для данных условий представлен в табл. 12. Среднее число двоичных знаков на букву кода
N |
(0 pi = |
0,5 + 0,5 + 0,375 + 0,25 + 0,15625 + 0,09175 = 1,8730, |
||
L = ' £ l |
||||
I |
|
|
|
|
а энтропия источника |
сообщений |
|
|
|
|
Н — — (Р\ log3 Pi + р2 log2 р2 + |
• • • + |
ре log2 р„) = |
|
= 0,5 + |
0,5 + |
0,375 + 0,2487 + 0,1554 + |
0,0909 |
= 1,8700 бит/символ. |
Некоторое расхождение в тысячных объясняется тем, что в данном коде. 2 р + 1,
i
т. е. данный ансамбль сообщений не является полной группой событий (2pi яз 0,984). Однако чем длиннее будет выбранный ряд значений Л,-, тем ближе 2р£ будет к 1, тем ближе будет значение L к энтропии источника сообщений.
Таким образом, Н фактически равно L, т. е. код является оптимальным для дан ного ансамбля сообщений.
Вывод: Число элементарных символов на букву сообщения с распре
делением вероятностей появления букв по закону Р{ = (-^-) возрастает в порядке убывания вероятностей как натуральный ряд чисел (1, 2,
3,..., М), |
если i = l , 2, 3, ..., М. |
Код, |
рассмотренный в данном примере, удобен при декодировании, |
так как каждое кодовое слово заканчивается нулем, который отделя ет кодовые слова друг от друга.
Пример 4. |
Построим оптимальный код сообщения, в котором вероятности появ |
||||
ления букв подчиняются закону рг = 2~ ni, но 2рг = |
1. |
|
|
||
Код, удовлетворяющий данным условиям, строим по общей методике. Оптималь |
|||||
ный код представлен в табл. 12. Среднее число двоичных |
знаков на букву |
кода и |
|||
энтропия источника сообщений соответственно равны: |
|
|
|||
N |
|
|
|
|
|
L = 2 |
I W Pi = 2 • °’5 + '2 • 0,375 + 4 • 0,25 = |
2,75; бит/символ. |
|
||
i |
N |
|
|
|
|
|
|
|
|
|
|
Н — — 2i Pi l°g2 Pi = |
2 • 0,85 log2 0,85 + |
2-0,125 log2 0,125 + |
|
||
+ 4 • 0,0625 log2 0,0625 = |
1 + 2 • 0,375 + 4 • 0,25 = 2,75 бит/символ. |
||||
Таким образом, H = L, так как удовлетворяется условие pt = 2 ~ ‘Ulf |
где п — |
||||
целое число, а |
2 р; — 1. |
|
|
|
|
|
i |
|
|
|
|
Вывод. Кодовые слова одинаковой вероятности появления имеют равную длину.
На основании рассмотренных выше примеров, можно сказать, что оптимальными будут те коды, у которых средняя длина кодовой комбинации при заданном основании кода является минимальной и мало отличается от энтропии Источника сообщений. Коды с неравно мерным распределением символов, имеющие минимальную среднюю длину кодового слова, называются оптимальными неравномерными ко дами (ОНК).Максимально эффективными будут те ОНК, у которых
N
logs т 2 / ^ ( 0 = /ср = Я,
76
где т и N — символы соответственно вторичного и первичного алфа витов.
Для двоичных кодов
|
|
N |
N |
|
|
|
|
|
2 I (0 Pi = |
— h |
|
Pi log» Pi, |
(54) |
|
|
г—1 |
t=l |
|
|
|
так |
как log2 2 |
1. Очевидно, |
что |
равенство (54) |
удовлетворяется |
|
. при |
условии |
|
|
|
|
|
/(l) = — l0g2 pi = l0ga 1
Pi
Величина /,• точно равна Н, если pt == 2~"г, где п любое число. Если п не является целым числом для всех значений букв первичного алфавита, то /ср > Я и согласно основной теореме'кодирования при ближается к энтропии источника сообщений по мере укрупнения кодируемых блоков.
Эффективность ОНК оценивают при помощи коэффициента ста тистического сжатия
______ Iog2 N_____
Ясс =
ср
log2 т 2 Pih
i=1
который характеризует уменьшение количества двоичных знаков на символ сообщения при применении ОНК по сравнению с применением методов нестатистического кодирования, и коэффициента относитель ной эффективности
к - |
н |
|
Л о .э — |
1 |
" > |
Чр
который показывает, насколько используется статистическая избы точность передаваемого сообщения.
Для наиболее общего случая неравновероятных и взаимонезависимых символов 1
|
|
|
|
N |
|
|
If |
_ |
|
2 Pi 1°8з Pi |
|
|
i—1 |
• |
|||
|
Л о .э |
— |
|
дг |
|
|
|
|
logs т 2 P ih) |
|
|
|
|
|
|
i—l |
|
Пример 5. |
Построим ОНК для |
передачи сообщений, в которых вероятности |
|||
появления букв |
первичного алфавита |
равны: Ai = |
0,5; Аг — 0,25; Аз = 0,098; |
||
Л4 = 0,052; Аь — 0,04; А е — 0,03; Л7 = |
0,019; Л8 = 0,011; и определим коэффициен |
ты статистического сжатия и относительной эффективности.
Оптимальный код для алфавитов с произвольным распределением вероятностей появления букв в текстах строится согласно общей методике. Перед построением ко да следует убедиться, что сумма вероятностей появления отдельных букв данного алфавита равна единице или близка к ней (в случае, если вероятности появления букв
1 Для случая неравновероятных и взаимозависимых символов
н = ~ 2 |
2 PiP Ш ай ^ёзР Ф раф |
< |
/ |
77
алфавита были получены в результате статистических исследований). Затем символы алфавита располагают в порядке убывания вероятностей и производят последова тельные разбиения на группы с возможно близкими суммарными значениями вероят ностей, присваивая каждый раз верхней группе символов значение 0, а нижней — 1.
Построение кода для условий, заданных в данном примере, представлено в табл. 12. Определяем Н, Ксс и К03‘-
|
|
8 |
|
|
|
|
|
|
Н = — |
2 Pi l°g-2Pi = |
— (0,5 log2 0,5 + 0,25 log2 0,25 + 0,098 ■log2 0,098 + |
||||||
|
|
i=1 |
|
|
|
|
|
|
+ |
0,052 log2 0,052 + |
0,04 log2 0,04 + |
0,03 iog2 0,03 + |
0,019 log2 0,019 + |
||||
+ |
0,011 log20,011) = |
0,5 + |
0,5 + |
0,3284 + 0,2217 + |
0,1875 + 0,1517 -|- |
|||
|
|
-j- 0,1086 + |
0,0715 = |
2,0676 бит/символ; |
||||
|
|
|
„ |
B max |
|
Iog2 8 |
|
|
|
|
|
CX_ |
*cp |
“ |
8 |
0 |
|
|
|
|
|
|
|
2 |
|
|
■0,5• 1 + |
0,25• 2 + 0,098■4 + 0,052 • 4 + |
0,04 • 4 + |
0,03 • 5 + 0,019• 6 4* 0,011 • 6 |
|||||
|
|
К |
|
|
2,0676 |
0,98. |
|
|
|
|
|
|
2,09 |
|
В предыдущей теме был математически обоснован тот факт, что средняя длина кодового слова передаваемого сообщения по мере укрупнения кодируемых блоков будет уменьшаться, а код — прибли жаться к оптимальному. Попробуем теперь уяснить это.
Предположим, что кодируемое сообщение разделено на очень длинные группы символов. Тогда от символов предыдущего блока бу дут зависеть только несколько начальных символов последующего блока, и эта зависимость будет уменьшаться по мере удаления символа от начала блока.Чем больше символов в блоке, тем больше будет символов, которые не зависят от предыдущих блоков. Происходит декорреляция символов. Устраняется взаимозависимость. При этом растет энтропия сообщения, а с ростом энтропии увеличивается коэф-
н
фициент сжатия р = -щ— (см. тему 6), уменьшается избыточность
•“ max
D = 1 — р, код приближается к оптимальному. В случае декоррелированных сообщений значительноупрощается вычисление энтропии:
N
Н = — 2 p(Bi)log2p(Bj) бит/блок,
i=1 |
' |
где р (В,) — вероятность появления одного |
из блоков. Энтропия на |
символ |
|
1"
Н= — -дг 2 Р iBi) log2 Р (Bi) бит]символ,
“/=1
где N — число символов в блоке.
78