Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 97

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Первое требование очевидно, так как при одинаковых кодовых обозначениях различных букв алфавитов нельзя будет их однозначно декодировать.

Второе требование может быть удовлетворено следующим образом: введением в код дополнительного разделительного символа — паузы, что значительно удлиняет коды, а следовательно, и время передачи сообщения; созданием кода, в котором конец одной буквы не может быть началом другой; либо кода, в котором все буквы передаются ком­ бинациями равной длины, т. е. равномерного кода. При этом следует отметить, что равномерные коды обладают известными преимущества­ ми: длину каждой буквы можно определить простым подсчетом элемен­ тарных символов, что позволяет автоматизировать процесс декодиро­ вания и строить простые декодирующие устройства (например, рис. 19,6). Однако равномерные коды имеют один существенный недостаток: все кодовые слова алфавитов, представленных ими, имеют равную дли­ ну независимо от вероятности появления отдельных символов кодиру­ емого алфавита. Такой код может быть оптимальным только для слу­ чая равновероятных и взаимонезависимых символов сообщений, что довольно часто встречается в телемеханике и никогда — при передаче текстовых. сообщений.

Для того чтобы найти условия, удовлетворяющие третьему, ос­ новному, требованию к кодам, необходимо узнать, в каких пределах находится минимальная средняя длина кодов слова данного алфавита, а также найти условия, при которых эта длина может быть уменьшена.

Пусть требуется передать N сообщений при помощи алфавита, который состоит из конечного числа символов т. Обозначим: р{ — вероятность появления г'-го сигнала; pin — условная вероятность по­ явления i-ro сигнала относительно ;'-го; L — средняя длина кодового слова для N сообщений, которая может быть определена как некото­ рое среднее количество элементарных символов для передачи среднего количества информации на кодовое слово данного алфавита и равна отношению количества информации на символ сообщения к максималь­ ному количеству информации на символ данного алфавита. Исполь­

зуя формулы (24) и (28), запишем

N

N

 

L’ =

Н

{

(41)

 

2

Pt 2 рщ iog2 pi/r

И„

 

 

 

 

 

 

Для случая равновероятных и взаимонезависимых символов

 

 

L" =

Н"

 

lo g ., N

(42)

 

и

 

 

 

 

“ max

 

lo g 2 /n

 

так как энтропия взаимозависимых и неравновероятных символов меньше, чем энтропия независимых и равновероятных следовательно,

L" > U .

Выражение (41) представляет собой предельный случай возможно­ го сокращения количества символов на образование кодового слова.

3 3-1273

65


Выражение (42) позволяет определять минимальное количество сим­ волов на одно сообщение, переданное равномерным кодом, в котором символы алфавита взаимонезависимы. Из этих выражений видно, что длина некоторого среднего кодового слова может быть сокращена за счет увеличения количества качественных признаков т. Например, если каждой букве русского алфавита в виде качественного признака выделить отдельную частоту, то длина любого кодового слова будет равна единице. Однако при этом потребовался бы сравнительно слож­ ный шифратор на 32 команды, необходимо было бы занять в эфире ши­ рокую полосу частот, поставить в приемном устройстве 32 фильтра и т. д. В общем случае увеличение количества качественных признаков часто ведет к усложнению приемно-передающей аппаратуры и не всег­ да себя оправдывает.

Длину среднего кодового слова можно также сократить, исполь­ зовав информационный резерв кода за счет уменьшения избыточности. В этом смысле предельно короткими являются так называемые опти­ мальные кодых — коды с нулевой (или близкой к нулю) избыточностью. Классическим примером кода с нулевой избыточностью может быть, код Шеннона — Фано 1.2 Но прежде чем приступить к рассмотрению прин­ ципов оптимального кодирования на примерах конкретных кодов, вспомним популярную задачу об отгадывании чисел [49], поскольку принцип решения этой задачи подобен принципу построения оптималь­ ного кода Шеннона — Фано. Кроме того, выводы, которые будут полу­ чены в результате рассмотрения этого элементарного примера, послужат основой для нахождения соотношений, которые приведут нас к основ­ ной теореме кодирования.

Итак, сколько вопросов необходимо задать собеседнику, чтобы отгадать задуманное число N, если ответом будет только «Да» и «Нет»? Пусть задуманное число N < 10. Для решения этой задачи используем уже известные нам положения теории информации. Процесс угадыва­ ния путем постановки k вопросов будем рассматривать как некоторый сложный опыт

A - k — а 1> а 2> • • • > a k>

где « г — ответ на первый вопрос; а 2 — ответ на второй вопрос; а к — ответ на последний вопрос.

Энтропия опыта На =

log 2, так как с равной вероятностью ответ

может быть и «Да» и «Нет». Энтропия двух

опытов Наг = 2 log 2.

Энтропия k опытов

Hak < к log 2.

 

 

 

1 В универсальном значении

оптимального кода не

существует. Код может

быть оптимальным при какйх-либо определенных начальных условиях,, в частности

оптимальный код Шеннона — Фано является оптимальным при отсутствии

помех

2

Э т о т к о д б ы л п р е д л о ж е н в 1 9 4 8 — 1 9 4 9 гг. н е з а в и с и м о друго т д п у г а Р М

Ф а н о

и

К. Ш е н н о н о м .

'

66


Если угадываемое число лежит в пределах 10, то максимальная информация опыта 4*

l Ak = 1 log 10.

Из вышесказанного можно заключить, что

log 10 = IAk< Hak < k log 2 = log 2k,

откуда

2 * > Ю ; й > lo g , 10 = ^ « 3 , 3 2 .

Так как число опытов не может быть дробью, то k — 4. Этот факт легко проверить. Необходимо только ставить вопросы так, чтобы информация в ответе была максимальной. А когда это возможно? Это возможно в том случае, если при каждом опыте иметь дело с рав­ новероятными событиями, т. е. если на вопрос с равной вероятностью может последовать ответ «Да» или «Нет» и энтропия одного опыта дей­ ствительно равняется log 2.

Таким образом, первый вопрос должен звучать так: «Задуманное число больше 5?» Если ответ был «Нет», то следует задать вопрос: «Задуманное число больше 3?» и т. д. Если каждый раз разбивать ос­ тавшееся число на возможно более равные части, то любое число из 10 будет определено максимум за четыре вопроса.

Если N < 100, то k > - ^ у

>

7; если N < 1000, то k >

>

>- 10. В общем случае

 

 

 

*

>

т | т -

<43>

Так как разность k — -°ор ■всегда меньше единицы (округление все­ гда происходит до ближайшего целого числа), то

Н4)

Нетрудно убедиться в том, что для двоичных кодов k показывает суммарное количество нулей и единиц, необходимых для выражения данного числа. Действительно, число 10 в двоичном коде равно 1010,

а число 100—1100010. Как видим, число элементарных символов равно logN

соответственно четыре и семь, т. е. величина

может служить

мерой длины кодового слова. Для случая, когда N является целой сте­ пенью числа 2, k — целое число и представляет собой минимальную длину кодового слова L для представления числа N в двоичном ал­ фавите.

з*

67


Для двоичных алфавитов (т — 2)

 

 

 

 

 

 

 

L >

lo g ТУ

log2 N.

 

 

(45)

 

 

 

 

lo g 2

 

 

 

 

 

Разность L lo g N

как бы

характеризует

избыточность данного ан-

 

 

lo g 2

 

 

 

 

 

 

 

 

самбля сообщений,

причем величина

lo g N

 

 

не что иное,

^ представляет

как коэффициент сжатия р =

. Чем

больше N,

тем

меньше

избыточность,

тем

короче средняя длина кодового слова. Нетрудно

заметить,

что

чем больше

N,

тем

меньше

разность

k

,

тем ближе

к к L,

тем точнее величина -— у

характеризует среднюю

минимальную длину кодового слова для представления данного ансамб­ ля N сообщений в двоичном коде.

Все предыдущие положения справедливы, если данный ансамбль сообщений представлять не в двоичном, а в m-значном коде. В этом случае при нахождении минимальной длины кодовых слов (другими словами, при построении экономных кодов) следует пользоваться лг-значной системой счисления. Скажем, для случая угадывания чисел разбивать не на две, а на т возможных равных частей и при исполь­ зовании алфавитов с разными вероятностями в качестве каждого по­ следующего шага делать разбиение не на две группы с равными веро­ ятностями, а на иг групп и т. д.

Для /л-значного алфавита длина кодового слова

lo g N

1 > lo g т

Подводя итоги, можно сказать, что средняя минимальная длина кодового слова L ансамбля ./V сообщений, составленного из алфавита т, не может быть меньше, чем частное от деления среднего количества ин­ формации данного ансамбля сообщений на максимальное количество информации на символ, т. е.

L > - w w

(«>

где в общем случае

N

Я'll Pi log Pi, t=i

ав случае равновероятных символов

Я = log N.

С другой стороны,

ТН

lo g m < 1 ,

68


или

i < T ^ r + 1-

<47>

Выражения (46) и (47) представляют собой соответственно верх­ нюю и нижнюю границы минимально необходимой средней длины ко­ дового слова. Используя эти выражения, получаем

Н

н

+ 1.

(48)

< L <

lo g m

lo g m

 

 

Рассмотрим теперь условия, при которых будет уменьшаться раз­ ность между верхней и нижней границами, т. е. условия, при которых средняя минимальная длина кодового слова будет приближаться к значению Я /log т. Для этого сначала выясним природу избыточности, выражающейся неравенством

L

lo g N

J

(49)

 

 

lo g m

Предположим, передаются символы некоторого равномерного кода с числом признаков т = 2, причем появление каждой из букв кода не зависит от появления любой другой буквы этого кода. Для пере­ дачи восьми букв алфавита минимальная длина кодового слова

lo g N

__ lo g 8

Iog3 8 = 3.

lo g m

lo g 2

 

Для передачи пяти букв

 

 

L5 =

log2 5 = 2,322,

т. е. минимальная длина не может быть передана меньше, чем тремя

символами. В этом случае коэффициент сжатия р =

Н 2 3 2 2

= 0,774, а избыточность

 

 

 

//m a x

 

 

 

 

D = 1 — р = 1 — 0,774 = 0,226.

 

Цифра 0,226 характеризует степень недогруженности кода.

Выражение

 

 

 

 

L >

Н

lo g

IV

(50)

lo g m

lo g

т

справедливо для кодов с равновероятными и взаимонезависимыми сим­ волами, в противном случае энтропия выражалась бы одной из формул (24) — (27) в соответствии с характером взаимозависимости между сим­ волами сообщения.

Для т = 2 выражение (50) справедливо тогда, когда вероятности появления 0 и 1 одинаковы. Но в действительности это будет только в случае, если N — целая степень числа 2. Например, для N — 4 чис­ ло нулей равно числу единиц и равно 4 (код двузначный). Для N = 8 число нулей равно числу единиц и равно 12 (код трехзначный) и т. д. Однако для N = 5 соотношение нулей и единиц — 10 к 5 (табл'. 10),

69