Файл: Толстоусов, Г. Н. Прикладная теория информации учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 30.10.2024

Просмотров: 77

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

или

 

Pc,

' Р (Ъ Ш

Шд)

 

 

Подставляя (12.13) в (12.I I ) , получим

 

Ч -X *

~

Г

Рс

^

РІХо/% )/ р(Хі

- ^

е[^Р о -

P te /to fto p fr - *]=°-

Следовательно,

частное количество

информации

неотрица­

тельно. Любое

принятое сообщение не увеличивает неопределенно­

сти источника

информации.

 

 

 

Среднее количество информации (12.10) как математическое ожидание неотрицательных величин также неотрицательно. Несмот­ ря на действие помех информация монет быть передана.

Согласно (1 2 .I)

 

Н(Х/У)< Н(Х. ) .

(Л.П)

Условная энтропия системы не может быть больше априорной энтро­ пии. Этим доказано предположение (6 .10).

§13. Пропускная способность дискретного канала связи с помехами. Согласование источника

иканала связи

Помехи в канале связи создают ситуацию, при которой на первый взгляд невозможна передача информации. Искажение пере­ даваемого сигнала случайно. Приняв сигнал, мы точно не знаем, какой сигнал был передан. Поэтому после декодирования принятой кодовой комбинации нет уверенности в правильности принятого со­ общения. Однако 1согласно результатам предыдущего параграфа, пе редача информации при помехах возможна. Это можно подтвердить и рядом простых примеров. Наличие ошибочных букв в полученной те­ леграмме большей частью позволяет правильно восстановить пере­ данное сообщение. Это возможно из-за избыточности языкового текста. При отсутствии помех примерно половина букв в тексте

60


лишняя. Она может быть убрана и текст будет понят. Однако если полностью устранить избыточность (лишние буквы) и передавать предельно сокращенный текст, то ошибка в любой букве сделает невозможным прием всего текста..

Рассмотрим другой пример. Пусть принятые сообщения о пара­

метре объекта в дискретные моменты времени имеют

вид, показан­

ный на рис. 13.I .

Можно полагать,

что в моменты времени

и

действовала

помехами принятые

в эти моменты

сообщения дол­

жны быть исправлены. Зто можно сделать, например, интерполяци­ ей. Здесь передача информации возможна также благодаря избыточ­ ности. Видно, что при отсутствии помех сообщения можно было бы передавать реже.

Многократное повторение передачи одного сигнала также по­ нижает вероятность ошибки и повышает вероятность правильного приема сигнала. Таким образом, здесь избыточность помогает борь­ бе с помехами. Однако для бесконечно малой вероятности ошибки необходима бесконечно большая избыточность. Тогдаскорость пере­ дачи информации будет бесконечно малой»и информация также не может быть передана. Покажем, что это рассуждение неверно.

Каждый канал связи характеризуется своей скоростью передачи информации.

Пусть H'(Z)- скорость изменения энтропии передатчика. При сигналах передатчика равной длительности имеем

61

H'(Z

(ы )

где Н(Ю- энтропия передатчика на один сигнал, определяе­ мая вероятностями состояний источника и системой кодирования;

“ZT - длительность одного сигнала.

Каждый сигнал передатчика передает согласно (12Л ) коли­ чество информации

 

 

 

= Н(2) - H (i/W ),

(кл)

где

 

H(Z/W)~ величина потери информации,

зависящая от

 

 

 

статистических характеристик сигнала и по­

 

 

 

мехи.

 

 

 

Такое количество информации "недодается" каждым сигналом

из-за действия помех.

 

 

 

Для скорости

передачи информации имеем

 

 

н ' И М

w =н 'Ш

(zw )*

^

где

- количество

потерянной из-за

помех информа-

 

 

■ ции в единицу времени.

 

 

Максимально достижимая в данном канале связи скорость пе­

редачи информации называется пропускной способностью канала

связи

и определяется следующим образом:

 

 

 

4 =

ггѵСох[н '(Z)-H '(z/w ) У <

( / 3.4

 

К.Шенноном была доказана

 

а

 

следующая теорема. Пусть дискрет­

ный канал связи с помехами обладает пропускной способностью

Сt i »

а дискретный источник

информации - скоростью изменения

энтропии

Н'(Х). Если Н'(X)^ Cfi , то существует такая систе­

ма кодирования, которая позволяет все сообщения источника пѳрет дать по каналу связи со сколь угодно малой ненадежностью///!^/}/.

Если Н'(Х) '"Сrit то не существует системы кодирования, обес­ печивающей ненадежность, меньшую, чем Н'(Х)~Сп. «

Эта теорема здесь приводится без доказательства, главным образом потому, что способ доказательства не указывает системы

62


кодирования. Система кодирования, пригодная для передачи инфор­ мации при любом виде помех, до сих пор не найдена, несмотря на утверждение теоремы. Однако значение теоремы Шеннона очень ве­ лико. Показана принципиальная возможность передачи информации при помехах, и указываются продельные потребные характеристики канала связи, необходимые для этой передачи, не подтверждаетсяинтуитивное представление о необходимости бесконечно большой избыточности для повышения достоверности. Для некоторых видов помехи задача в настоящее время решена и система кодирования найдена;

Подчеркнем, что в отличие от канала без помех здесь важно не только успеть передать все сообщения. Для этого было бы до­ статочно соотношения

н (х )< с ^/п £ и сн { г). (as)

Важно успеть принять все сообщения без искажения, а для этого необходимо соотношение

H 'fK j& C aBm aafc'fehH 'tè/vr)]' (*&

Из сравнения (13.5) и (13.б) видно, какую избыточность следует вводить для канала с помехами. Эта избыточность используется при построении системы кодирования.

Рассмотрим пример вычисления пропускной способности кана­ ла связи с помехами. Пусть имеется передатчик с двумя сигнала­

ми гГу и Ид

равной длительности.

Т

. Действие помехи при­

водит к тому, что каждый из сигналов с

вероятностью ju*

при -

нимается неверно и с вероятностью I

- JUL,

принимается верно

(рис. 13 .2).

 

 

 

 

Для определения

 

 

 

 

 

/ -

/

Jr*

*

пропускной способности

X

выбираем выражение

 

 

£ = y£-max[H(W)-H(WM)]'

W )

 

 

 

Wj

/ - /

Рис. 13.2

63


Модель помех описывается табл. 13.I условных вероятностей Pftij/Zi} . Найдем частные условные энтропии. Имеем

H(WM

Таблица 13.I

1

z

.

ьГі

 

A

bTz

JLL

*~A

fyju

В обоих случаях ( Z =%f

и £ - %х ) значения Н(У/х.^) одинаковы, поэтому средняя условная энтропия равна

H(w/z)~-/ueo<jju-

- Ü -ßM )-io $ (i-/ll)^< l(ju), 05.8)

где оС(fil) - используемое далее обозначение.

При определении пропускной способности необходимо найти максимум выражения (13.7). Характеристика помехи ߣ считается заданной и не варьируется. Для энтропии приемника H(w) как системы с двумя состояниями имеем

rrubxH(W)- 1<fcr. (/3.9;

Следовательно, пропускная способность

05.10)

Скорость передачи информации равна пропускной способности, ког­

да выполняется условие (13.9), т .е , принимаемые

сигналы

^

и

Ыг равновероятны. Из симметрии помехи (рис. 13.2) следует,

 

что это выполняется, когда

передаваемые

сигналы

и

рав­

новероятны. Но из этого не

следует,

что

в данном случае монет

 

быть использован код Фано.

На рис.

13.3

показана

зависимость

 

пропускной способности от условной вероятности искажения

jU. .

При ja = 0,5 передача информации в

системе нѳвоамонна (

Сц-0 ).

Помеха такова, что сигнал с равной вероятностью может быть при­ нят правильно и неправильно. Канал связи можно заменить схемой, когда телеграфист подбрасывает монету, при выпадении "герба"

вписывается

в приемный бланк

 

£ , , а

при

выпадении

"решетки"

-

.

Когда

/ с

) 0

,5 ,

монно пытаться

искать

систему

кодирования,

которая

должна учитывать,

что

при

^ * -0 ,5 более

64


вероятно решение о правильном приеме, а при jic> 0,5 - о не­ правильном.

§ 14. Понятие об обнаруживающем и корректирующем кодах

Некоторые модели помех позволяют построить систему кодиро­ вания, обеспечивающую согласование источника и канала связи в полном соответствии с теоремой о пропускной способности. Рас­ смотрим следующий пример. В бинарном канале связи (передатчик передает два сигнала 0 и I ) помехи таковы, что из трех последо­ вательно передаваемых сигналов монет исказиться только одиіиТри вероятности искажения любого из трех сигналов и вероятность правильной передачи равны. Определим пропускную способность та­ кого канала. Для удобства в качестве сигнала передатчика примам трѳхраарядную кодовую комбинацию. Тогда будем иметь восемь пе­

редаваемых сигналов

Zf ,

. . .

,

Z f

(000,

001, . . . ,

I I I ) и во­

семь принимаемых сигналов

uff ,

. . .

,

Условные

вероятно­

сти

/ Z-i) , записанные в. соответствии

с принятой моделью

помех, приведены в табл. 14.I ;

 

 

 

 

 

 

Пропускную способность канала будем вычислять по формуле

 

 

Сл=

т лх [н (и ) - H(W/Z)],

(rt.i)

где

- время передачи

трех

сигналов передатчика.

 

 

Частные

условные энтропии Н(і/ / х і )

д л я любого

, как

это

видно из

табл.

14 .I ,

будут

 

одинаковы:

 

 

65