Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.10.2024
Просмотров: 97
Скачиваний: 0
Первое требование очевидно, так как при одинаковых кодовых обозначениях различных букв алфавитов нельзя будет их однозначно декодировать.
Второе требование может быть удовлетворено следующим образом: введением в код дополнительного разделительного символа — паузы, что значительно удлиняет коды, а следовательно, и время передачи сообщения; созданием кода, в котором конец одной буквы не может быть началом другой; либо кода, в котором все буквы передаются ком бинациями равной длины, т. е. равномерного кода. При этом следует отметить, что равномерные коды обладают известными преимущества ми: длину каждой буквы можно определить простым подсчетом элемен тарных символов, что позволяет автоматизировать процесс декодиро вания и строить простые декодирующие устройства (например, рис. 19,6). Однако равномерные коды имеют один существенный недостаток: все кодовые слова алфавитов, представленных ими, имеют равную дли ну независимо от вероятности появления отдельных символов кодиру емого алфавита. Такой код может быть оптимальным только для слу чая равновероятных и взаимонезависимых символов сообщений, что довольно часто встречается в телемеханике и никогда — при передаче текстовых. сообщений.
Для того чтобы найти условия, удовлетворяющие третьему, ос новному, требованию к кодам, необходимо узнать, в каких пределах находится минимальная средняя длина кодов слова данного алфавита, а также найти условия, при которых эта длина может быть уменьшена.
Пусть требуется передать N сообщений при помощи алфавита, который состоит из конечного числа символов т. Обозначим: р{ — вероятность появления г'-го сигнала; pin — условная вероятность по явления i-ro сигнала относительно ;'-го; L — средняя длина кодового слова для N сообщений, которая может быть определена как некото рое среднее количество элементарных символов для передачи среднего количества информации на кодовое слово данного алфавита и равна отношению количества информации на символ сообщения к максималь ному количеству информации на символ данного алфавита. Исполь
зуя формулы (24) и (28), запишем |
N |
N |
|
||
L’ = |
Н |
{ |
(41) |
||
|
2 |
Pt 2 рщ iog2 pi/r |
|||
И„ |
|
||||
|
|
|
|
|
|
Для случая равновероятных и взаимонезависимых символов |
|
||||
|
L" = |
Н" |
|
lo g ., N |
(42) |
|
и |
|
|
||
|
|
“ max |
|
lo g 2 /n |
|
так как энтропия взаимозависимых и неравновероятных символов меньше, чем энтропия независимых и равновероятных следовательно,
L" > U .
Выражение (41) представляет собой предельный случай возможно го сокращения количества символов на образование кодового слова.
3 3-1273 |
65 |
Выражение (42) позволяет определять минимальное количество сим волов на одно сообщение, переданное равномерным кодом, в котором символы алфавита взаимонезависимы. Из этих выражений видно, что длина некоторого среднего кодового слова может быть сокращена за счет увеличения количества качественных признаков т. Например, если каждой букве русского алфавита в виде качественного признака выделить отдельную частоту, то длина любого кодового слова будет равна единице. Однако при этом потребовался бы сравнительно слож ный шифратор на 32 команды, необходимо было бы занять в эфире ши рокую полосу частот, поставить в приемном устройстве 32 фильтра и т. д. В общем случае увеличение количества качественных признаков часто ведет к усложнению приемно-передающей аппаратуры и не всег да себя оправдывает.
Длину среднего кодового слова можно также сократить, исполь зовав информационный резерв кода за счет уменьшения избыточности. В этом смысле предельно короткими являются так называемые опти мальные кодых — коды с нулевой (или близкой к нулю) избыточностью. Классическим примером кода с нулевой избыточностью может быть, код Шеннона — Фано 1.2 Но прежде чем приступить к рассмотрению прин ципов оптимального кодирования на примерах конкретных кодов, вспомним популярную задачу об отгадывании чисел [49], поскольку принцип решения этой задачи подобен принципу построения оптималь ного кода Шеннона — Фано. Кроме того, выводы, которые будут полу чены в результате рассмотрения этого элементарного примера, послужат основой для нахождения соотношений, которые приведут нас к основ ной теореме кодирования.
Итак, сколько вопросов необходимо задать собеседнику, чтобы отгадать задуманное число N, если ответом будет только «Да» и «Нет»? Пусть задуманное число N < 10. Для решения этой задачи используем уже известные нам положения теории информации. Процесс угадыва ния путем постановки k вопросов будем рассматривать как некоторый сложный опыт
A - k — а 1> а 2> • • • > a k>
где « г — ответ на первый вопрос; а 2 — ответ на второй вопрос; а к — ответ на последний вопрос.
Энтропия опыта На = |
log 2, так как с равной вероятностью ответ |
|
может быть и «Да» и «Нет». Энтропия двух |
опытов Наг = 2 log 2. |
|
Энтропия k опытов |
Hak < к log 2. |
|
|
|
|
1 В универсальном значении |
оптимального кода не |
существует. Код может |
быть оптимальным при какйх-либо определенных начальных условиях,, в частности
оптимальный код Шеннона — Фано является оптимальным при отсутствии |
помех |
|
2 |
Э т о т к о д б ы л п р е д л о ж е н в 1 9 4 8 — 1 9 4 9 гг. н е з а в и с и м о друго т д п у г а Р М |
Ф а н о |
и |
К. Ш е н н о н о м . |
' |
66
Если угадываемое число лежит в пределах 10, то максимальная информация опыта 4*
l Ak = 1 log 10.
Из вышесказанного можно заключить, что
log 10 = IAk< Hak < k log 2 = log 2k,
откуда
2 * > Ю ; й > lo g , 10 = ^ « 3 , 3 2 .
Так как число опытов не может быть дробью, то k — 4. Этот факт легко проверить. Необходимо только ставить вопросы так, чтобы информация в ответе была максимальной. А когда это возможно? Это возможно в том случае, если при каждом опыте иметь дело с рав новероятными событиями, т. е. если на вопрос с равной вероятностью может последовать ответ «Да» или «Нет» и энтропия одного опыта дей ствительно равняется log 2.
Таким образом, первый вопрос должен звучать так: «Задуманное число больше 5?» Если ответ был «Нет», то следует задать вопрос: «Задуманное число больше 3?» и т. д. Если каждый раз разбивать ос тавшееся число на возможно более равные части, то любое число из 10 будет определено максимум за четыре вопроса.
Если N < 100, то k > - ^ у |
> |
7; если N < 1000, то k > |
> |
>- 10. В общем случае |
|
|
|
* |
> |
т | т - |
<43> |
Так как разность k — -°ор ■всегда меньше единицы (округление все гда происходит до ближайшего целого числа), то
Н4)
Нетрудно убедиться в том, что для двоичных кодов k показывает суммарное количество нулей и единиц, необходимых для выражения данного числа. Действительно, число 10 в двоичном коде равно 1010,
а число 100—1100010. Как видим, число элементарных символов равно logN
соответственно четыре и семь, т. е. величина |
может служить |
мерой длины кодового слова. Для случая, когда N является целой сте пенью числа 2, k — целое число и представляет собой минимальную длину кодового слова L для представления числа N в двоичном ал фавите.
з* |
67 |
Для двоичных алфавитов (т — 2) |
|
|
|
|
||||||
|
|
|
L > |
lo g ТУ |
log2 N. |
|
|
(45) |
||
|
|
|
|
lo g 2 |
|
|
|
|
|
|
Разность L — lo g N |
как бы |
характеризует |
избыточность данного ан- |
|||||||
|
|
lo g 2 |
|
|
|
|
|
|
|
|
самбля сообщений, |
причем величина |
lo g N |
|
|
не что иное, |
|||||
^ представляет |
||||||||||
как коэффициент сжатия р = |
— |
. Чем |
больше N, |
тем |
меньше |
|||||
избыточность, |
тем |
короче средняя длина кодового слова. Нетрудно |
||||||||
заметить, |
что |
чем больше |
N, |
тем |
меньше |
разность |
k — |
, |
||
тем ближе |
к к L, |
тем точнее величина -— у |
характеризует среднюю |
минимальную длину кодового слова для представления данного ансамб ля N сообщений в двоичном коде.
Все предыдущие положения справедливы, если данный ансамбль сообщений представлять не в двоичном, а в m-значном коде. В этом случае при нахождении минимальной длины кодовых слов (другими словами, при построении экономных кодов) следует пользоваться лг-значной системой счисления. Скажем, для случая угадывания чисел разбивать не на две, а на т возможных равных частей и при исполь зовании алфавитов с разными вероятностями в качестве каждого по следующего шага делать разбиение не на две группы с равными веро ятностями, а на иг групп и т. д.
Для /л-значного алфавита длина кодового слова
lo g N
1 > lo g т
Подводя итоги, можно сказать, что средняя минимальная длина кодового слова L ансамбля ./V сообщений, составленного из алфавита т, не может быть меньше, чем частное от деления среднего количества ин формации данного ансамбля сообщений на максимальное количество информации на символ, т. е.
L > - w w |
(«> |
где в общем случае
N
Я'll Pi log Pi, t=i
ав случае равновероятных символов
Я = log N.
С другой стороны,
ТН
lo g m < 1 ,
68
или
i < T ^ r + 1- |
<47> |
Выражения (46) и (47) представляют собой соответственно верх нюю и нижнюю границы минимально необходимой средней длины ко дового слова. Используя эти выражения, получаем
Н |
н |
+ 1. |
(48) |
< L < |
lo g m |
||
lo g m |
|
|
Рассмотрим теперь условия, при которых будет уменьшаться раз ность между верхней и нижней границами, т. е. условия, при которых средняя минимальная длина кодового слова будет приближаться к значению Я /log т. Для этого сначала выясним природу избыточности, выражающейся неравенством
L |
lo g N |
J |
(49) |
|
|
lo g m
Предположим, передаются символы некоторого равномерного кода с числом признаков т = 2, причем появление каждой из букв кода не зависит от появления любой другой буквы этого кода. Для пере дачи восьми букв алфавита минимальная длина кодового слова
lo g N |
__ lo g 8 |
Iog3 8 = 3. |
|
lo g m |
lo g 2 |
||
|
|||
Для передачи пяти букв |
|
|
|
L5 = |
log2 5 = 2,322, |
т. е. минимальная длина не может быть передана меньше, чем тремя
символами. В этом случае коэффициент сжатия р = |
Н — 2 ’3 2 2 — |
|||
= 0,774, а избыточность |
|
|
|
//m a x |
|
|
|
|
|
D = 1 — р = 1 — 0,774 = 0,226. |
|
|||
Цифра 0,226 характеризует степень недогруженности кода. |
||||
Выражение |
|
|
|
|
L > |
Н |
lo g |
IV |
(50) |
lo g m |
lo g |
т |
справедливо для кодов с равновероятными и взаимонезависимыми сим волами, в противном случае энтропия выражалась бы одной из формул (24) — (27) в соответствии с характером взаимозависимости между сим волами сообщения.
Для т = 2 выражение (50) справедливо тогда, когда вероятности появления 0 и 1 одинаковы. Но в действительности это будет только в случае, если N — целая степень числа 2. Например, для N — 4 чис ло нулей равно числу единиц и равно 4 (код двузначный). Для N = 8 число нулей равно числу единиц и равно 12 (код трехзначный) и т. д. Однако для N = 5 соотношение нулей и единиц — 10 к 5 (табл'. 10),
69