Файл: Основы автоматического управления..pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 393

Скачиваний: 15

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

§ 12.3. СТА ТИ СТИ ЧЕСКИ Е СВОЙСТВА СИГНАЛОВ

481

Но из неравенства

N

< У]

 

следуют неравенства

 

 

2~щні+ц)

2~ЩНі~Г])

(12.3.8)

Таким образом, мы доказали, что из всех возможных реали­ заций последовательности знаков с вероятностью, как угодно близ­ кой к единице, появляется одна из реализаций, вероятности кото­ рых заключены в пределах (12.3.8) при любом ц > 0 , если только последовательность достаточно длинна. Грубо говоря, можно ска­ зать, что практически всегда появляется одна из возможных реа­ лизаций последовательности, имеющих вероятность, равную <2 = 2~NHl. Число таких реализаций не может быть больше 2ЛН*. А так как суммарная вероятность этих реализаций как угодно близка к единице, то можно считать, что число практически воз­ можных реализаций равно 2№Я*и вероятность каждой из них рав­ на 2 -яя ‘.

П р и м е р 12.3.1. Сообщение передается двоичным кодом. Энтропия последовательности на один знак равна 0,75 бит. Найти общее число воз­ можных реализаций и число практически возможных реализаций после­

довательности, содержащей 100 знаков. В данном

случае

N =

100,

п = 2,

Я, = 0,75. Общее число

возможных

реализаций

равно

nN — 2100.

Число

практически возможных

реализаций на основании изложенного равно

2 NHl = 2100 0'75 = 275-

Отношение

числа всех

возможных

реализаций

к числу практически возможных равно

 

 

 

 

пN

2Ю0

225= 10242,5 >30.10°.

 

 

 

2nHi -

215

 

 

 

Таким образом, в данном случае число практически возможных реализаций сигнала составляет меньше чем одну тридцатимиллионную долю числа всех возможных реализаций. Для более длинных последовательностей эта доля будет еще значительно меньше. Так, например, для N — 1000 отношение

числа всех возможных реализаций к числу практически возможных реализа­ ций больше ІО75.

П р и м е р 12.3.2. Передача сообщения ведется на русском языке

буквами русского алфавита. Энтропия русской речи, приходящаяся в сред­

нем на одну букву, приблизительно равна двум двоичным знакам. Определить

число практически возможных сообщений, составленных из 100 букв, и срав­

нить его с числом всех возможных последовательностей по

100 букв русского

алфавита. Так как в русском алфавите 32 буквы, то п = 32,

N = 100, Ні = 2.

Отсюда 2ЯЯі = 2100'2 = 2200

и

= 32«о = 102430 > lose.

пN

32100

32Ю0

2КНі

2200

3210

Полученный результат имеет чрезвычайно большое значение для практики, так как позволяет резко ограничить число практи­ чески возможных реализаций передаваемых сигналов. А именно доказанное предложение и рассмотренные примеры показывают, что из полного числа nN = 2N ,0вап всех возможных реализаций

31 Под ред. В. С. Пугачева


482

Г Л . 12. П Е РЕ Д А Ч А ИНФ О РМ А Ц И И ПО КА Н А ЛА М С В Я ЗИ

сигнала практически возможно появление лишь 2NHі реализаций.

При

большом N

и Hi <

Hi max = log2 n число

2NHi составляет

лишь

ничтожно

малую

долю числа nN. Таким

образом, лишь

ничтожно малая доля всех возможных реализаций оказывается практически возможной, а подавляющее число остальных реали­ заций имеет ничтожно малую суммарную вероятность появления.

Изложенное показывает, какую большую роль играет энтропия случайной последовательности для практики. Зная энтропию после­ довательности, можно определить число практически возможных ее реализаций и учитывать в практических расчетах только это относительное небольшое число реализаций, а с подавляющим чис­ лом остальных реализаций совершенно не считаться.

Второй из рассмотренных примеров показывает, что из всех воз­ можных последовательностей, составленных из 100 русских букв, лишь ничтожно малая доля представляет собой имеющие смысл последовательности русских букв, а остальные являются случай­ ными наборами букв. Это говорит о том, что язык обладает боль­ шой избыточностью. Действительно, так как

Л 'Яі

2NHl = п1°в*п ,

то каждой имеющей смысл последовательности из N букв можно поставить в соответствие другую последовательность, составлен­ ную из s — NHJlogz п букв. Иными словами, все имеющие смысл сообщения, составленные из N букв, можно закодировать после­ довательностями, составленными из s букв каждая. При этом все возможные последовательности из s букв будут иметь смысл. Так как для любого европейского языка величина H J log2 п не пре­ вышает 0,5, то все имеющие смысл сообщения можно закодировать приблизительно вдвое более короткими последовательностями букв. Это и доказывает, что лишь около 50% букв в нашей речи независимы, а остальные практически полностью определяются законами грамматики. Иными словами, наш язык обладает боль­ шой избыточностью, и лишь приблизительно 50% букв в нем несут информацию.

Избыточность языка позволяет практически достоверно рас­ шифровывать сообщения с ошибками, заменяя ошибочные буквы правильными. Именно поэтому мы легко обнаруживаем опечатки в тексте и исправляем их. Если бы язык не обладал избыточностью, то кажадя ошибочная буква меняла бы смысл написанного и опе­ чатки было бы невозможно обнаруживать и исправлять.

Применим изложенные соображения к задаче кодирования сооб­ щений. Для того чтобы закодировать сообщение, необходимо после­ довательности его знаков поставить в соответствие другую последо­ вательность знаков. Простейшим примером кодирования может служить замена последовательности букв алфавита последователь­


§ 12.4, П Е РЕ Д А Ч А ИНФ О РМ А Ц И И ПО К А Н А Л У С ШУМАМИ

483

ностями точек и тире азбуки Морзе. Другим примером кодирования может служить сопоставление звукам устной речи последователь­ ностей букв. Кодированием является также сопоставление опре­ деленных групп импульсов различным командам, передаваемым по линии телеуправления.

Из теории вероятностей известно, что при любом преобразова­ нии случайных величин содержащееся в них количество информа­ ции о некоторых других случайных величинах не может увеличить­ ся, а может только уменьшиться. И только в случае обратимого функционального преобразования количество информации остает­ ся неизменным. Отсюда следует, что кодирование может сопровож­ даться потерей информации и только в случае обратимого кода, т. е. кода, допускающего однозначную расшифровку (декодиро­ вание), количество информации остается неизменным. Поэтому необходимо всегда стремиться применять обратимые коды.

Очевидно, что при кодировании надо стараться по возможности сокращать текст, так как при этом сокращается время передачи сообщений и увеличивается скорость передачи информации. Выше мы видели, что вследствие избыточности речи можно при кодиро­ вании сжать текст в \og2nlHi раз. При этом обеспечивается взаимно однозначное соответствие между имеющими смысл последователь­ ностями, содержащими по N букв, и всеми возможными последо­ вательностями по s = NHJ\og2n букв, т. е. обеспечивается обра­ тимость кода и возможность его однозначной расшифровки. Легко понять, что при сжатии текста больше чем в log2rc/#i раз код станет необратимым, так как число возможных последовательностей^букв будет меньше числа практически возможных сообщений.

Однако практическое осуществление кодирования с максималь­ ным сжатием текста очень затруднительно вследствие практиче­ ской невозможности перебрать все возможные варианты сообще­ ний различной длительности. Поэтому практически осуществляет­ ся кодирование не целых сообщений, а отдельных групп знаков. При этом, очевидно, чем чаще встречается данная группа знаков,, тем более короткой последовательностью знаков ее следует коди­ ровать. Иными словами, при кодировании следует стремиться к тому, чтобы кодировать более короткими последовательностями знаков те группы знаков, которые имеют большую вероятность появления.

§ 12.4. Передача информации по каналу с шумами. Пропускная способность канала

Вследствие искажения передаваемых сигналов шумами, неиз­ бежно действующими в канале, каждому принятому сигналу Y , вообще говоря, не будет соответствовать один возможный передан­ ный сигнал X. Иными словами, после приема сигнала Y переданный

31*


484

ГЛ . 12. П Е РЕ Д А Ч А И Н Ф О РМ А Ц И И ПО КА Н А ЛА М С В ЯЗИ

сигнал X не будет полностью определен, а остается случайным. Неопределенность переданного сигнала X будет характеризовать­ ся средней условной энтропией X относительно У. Поэтому коли­ чество информации о переданном сигнале X, содержащееся в при­ нятом сигнале Y, определяется формулой ([54], § 7.4)

ly [X] = Я [X] — Н у [X].

(12.4.1)

Количество информации в каждом знаке передаваемого сигнала в зависимости от способа кодирования будет различным. Поэтому количество информации, передаваемое по каналу в единицу вре­ мени, будет зависеть от способа кодирования и от числа передавае­ мых в единицу времени знаков сигнала. Максимальное количество информации, которое может быть передано по данному каналу в единицу времени, называется пропускной способностью этого канала. Считая, что через Н [X] и Н у [X] в (12.4.1) обозначены соответственно энтропия и средняя условная энтропия сигнала, приходящиеся на единицу времени, и обозначая пропускную спо­ собность канала через С, можем записать сформулированное опре­ деление пропускной способности канала в виде

С = max {ly [X]} = max {Я [X] - H v [X]}. (12.4.2)

Предположим, что информация передается по каналу со ско­ ростью Я, меньшей пропускной способности канала С, и оценим вероятность ошибки при расшифровке принятого сигнала. Для этого обозначим через Я<т> и Я™’ соответственно значения Я [X] и Ну [X], при которых достигается максимум в (12.4.2). Тогда (12.4.2) даст

С = Я (т) —Я (ут).

(12.4.3)

На основании доказанного в предыдущем параграфе максимальное число практически возможных реализаций переданного сигнала данной длительности Т при том способе кодирования, при котором

Я [X] достигает максимального значения Я <т>, равно 2™ш\ а число практически возможных реализаций сигнала X, соответ­ ствующих одной реализации принятого сигнала У, при этом равно

2 THym)_ Иными словами, максимальное число практически возмож­ ных различных последователь ностей знаков, каждая из которых может быть передана в течение времени Т по данному каналу, рав­

но 2ГН<?П). При этом каждой принятой последовательности знаков

соответствует 2тнѵп’ практически возможных переданных последо­ вательностей. Это положение схематически изображено на рис. 12.4.1.

Если информация, содержащаяся в сигнале X, передается со скоростью Я бит/с, то число практически возможных реализаций

этого сигнала длительности Т равно 2ГЯ< 2тн(m,. Рассмотрим такой


§ 12.4. П Е РЕ Д А Ч А И Н Ф О РМ А Ц И И ПО К А Н А Л У С ШУМАМИ

485

способ кодирования, при котором каждой из практически возмож­ ных реализаций переданного сигнала сопоставляется одна из 2тн<т>

последовательностей знаков, т. е. из общего числа 2ТН<7П) точек на рис. 12.4.1 выбирается 2ТЯ точек. При этом вероятность того, что данная точка будет занята одной из возможных реализаций

передаваемого

сигнала, равна

2гн/2тн<ТП) =

 

= 2—тщ(т)—Н)

Лз теории вероятностей извест­

 

но, что вероятность появления

хотя бы одного

 

из нескольких событий не может быть больше

 

суммы вероятностей этих событий. Поэтому

 

вероятность того, что при кодировании будет

 

занята хотя бы одна из 2th ™’ точек, соответству­

 

ющих данной реализации принятого сигнала Y,

Рис. 12.4.1.

кроме той, которая соответствует действительно

переданной реализации сигнала X, будет меньше

чем 2тн»т> .2—Т(н<т)—н>, т. е.гдля вероятности ошибки рошпри пере­ даче сигнала X имеем неравенство

р < 2 тяГ . 2 - Г(Н<т>- н>—2~Т<-Н'т)~,І'уЮ~І,)

 

или, принимая во внимание (12.4.3),

 

Рош < 2-пс-н),

(12.4.4)

При Н < С это выражение стремится к нулю при Т -*■ оо. Таким образом, мы доказали, что при передаче информации по каналу с пропускной способностью С со скоростью Я < С можно закоди­ ровать передаваемый сигнал так, что вероятность ошибки будет как угодно мала при достаточно большой длительности переда­ ваемого сигнала Т . Это предложение представляет собой основную теорему Шеннона [75]. Более тонкие математические методы дают

возможность доказать, что эта теорема верна и при Я =

С [69].

Очевидно, однако, что возможность

передачи информации

по каналу с шумами с как угодно малой

вероятностью

ошибки

может быть достигнута лишь ценой запаздывания, необходимого для расшифровки принятого сигнала, так как декодирование мож­ но осуществить лишь после того, как будет передана вся последо­ вательность знаков сигнала.

Рассмотрим теперь случай передачи информации по каналу, имеющему пропускную способность С, со скоростью Я > С. Из

(12.4.2) следует, что при любом кодировании

 

Я -

Ну <

С,

(12.4.5)

откуда

Я -

С.

(12.4.6)

Я„ >

Таким образом, при передаче информации по каналу с пропускной