Файл: Бовбель, Е. И. Элементы теории информации.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2024

Просмотров: 65

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Задача 2. Источник вырабатывает три различных символа ,ѵ'ь Х2, х$ с соответственными вероятностями 0,5,

0,3 и 0,2. Заданы возможные длительности символов ^ =

— 10 с, т2= 4 с и т3 = 2 с. Подобрать такое соответствие

заданных длительностей символам источника, чтобы по­ ток информации был максимальным.

Р е ш е н и е. Энтропия источника

Н{Х) = — V P(Xi)\og Р ( хі) = 1,49 (бит). /=і

Чтобы поток информации

ѵ 1

<т>

<~>

был максимален, необходимо

минимизировать среднюю

длительность символа

 

< ' > = 2 /= 1

Для этого, очевидно, нужно наиболее часто встречающим­ ся символам сопоставить наименьшую длительность:

<т > min ==2j4),5-|-4-0,3+10-0,2 = 4,2 с. При этом поток

информации # тах = 0 Л354 бит/с.

Г Л А В А 3

ДИСКРЕТНЫЕ КАНАЛЫ БЕЗ ШУМОВ

§ 1. Модель информационной системы передачи дискретных сообщений в отсутствие шумов

Основной функцией информационных систем является хранение информации и ее перенос в пространстве. Систе­ му передачи информации между двумя заданными пунк­ тами называют одноканальной информационной систе­ мой связи, или просто к а н а л о м с в я з и .

Простейшая блок-схема дискретного канала связи без шумов приведена на рис. 3.

Рис. 3

Выходным сообщением источника может являться пе­ чатный текст, графическое изображение, звуковая волна, показания прибора и т. п. Назначение кодирующего уст­ ройства (кодер) состоит в том, чтобы представить выход­ ное сообщение источника в некоторой стандартной форме, например в виде последовательности двоичных сигналов. -Однако основная задача кодирования заключается в том, чтобы стандартное представление было наиболее эконом­ ным, т. е. требоъало в среднем наименьшего возможного числа двоичных сигналов, а также чтобы в случае отсут­ ствия шумов на приемной стороне по полученным кодиро­ ванным сигналам можно было однозначно восстановить вид переданных сообщений, т. е. чтобы W—X. Последнее накладывает некоторые ограничения на допустимый вид кодированных сигналов (см. § 3 этой главы).

Кодированные сигналы, пройдя линию связи, поступа­ ют на вход декодирующего устройства, которое преобра­ зует их в форму, наиболее удобную для данного прием­ ника.

61


§ 2. Пропускная способность канала связи

Введем определение пропускной способности канала

связи

в предположении, что сообщения

источника и

шумы,

действующие в линии связи, носят эргодический

характер.

сообщений,

Обозначив через Х тпоследовательность

создаваемых источником за время Т, а через

W r соответ­

ствующую ей последовательность примятых сообщений,

определим

количество информации I(Wr, Х т), содержа»

щееся в

последовательности сообщений \Ѵтпа выходе

канала о последовательности X уліа его выходе. I(Wr X T) зависит от вероятностных характеристик источника сооб­ щений и характеристик шумов, действующих в линигГсвязи, ‘метода кодирования сообщений, а также от промежут­ ка времени Т.

Предел

(3.1)

определяет среднее количество информации, получаемое на выходе канала за единицу времени, и называется с к о р о с т ь ю п е р е д а ч и и и ф о р м а ц и и.

Максимальную скорость

передачи информации назо­

вем п р о п у с к н о й с п о с о б н о с т ь ю

канала связи С;

C= max I(\V, X) (бпт/с).

(3.2)

При вычислении максимума

скорости

передачи могут

представиться следующие случаи:

1)канал связи определен полностью: заданы способы кодирования и декодирования сообщений, длительности передаваемых сигналов, полоса канала связи и вероятно­ стные характеристики помех; тогда максимальная ско­ рость передачи информации отыскивается по статистиче­ ским характеристикам источника сообщений, т. е. разыс­ кивают такое распределение вероятностей по сообщениям X, при котором скорость передачи информации наиболь­ шая;

2)статистические показатели источника сообщений за­ даны; в этом случае способы модуляции, кодирования и декодирования выбираются так, чтобы скорость передачи информации была максимальной;

62


3) канал связи полностью не определен — имеется* возможность изменять те или иные его параметры: дли­ тельности символов, способ кодирования и т. и.; в этом случае параметры канала, которые не заданы, выбирают из условия получения возможно большей скорости пере­ дачи информации, а максимум в (3.2) снова отыскивают

по статистическим

характеристикам

источника

сообще-

• ний.

 

 

связи определяется

Пропускная способность линии

так:

 

 

 

 

Сс = max 1(Z, Y)

-(бит/e),

(3.3)

где

 

Yp)

 

%

 

 

 

 

 

 

/'Z ,

Y) - lim

f

 

 

 

7*-> oo

 

 

Так как весь информационный канал связи не может про­ пускать информацию со скоростью большей, чем его ‘часть, то всегда Сс^ С .

При отсутствии шумов wT=x.n zT = у т. На основании

свойств количества информации

 

Х т) = І(Х.П х т) = Н(X.,)-

 

I[ZT, Y T) = I \ X r

YT) = H ( Y T).

 

Подставив последние выражения в (3.2) и (3.3),

получим

С =

 

Н( ХГ)

(3.4)

max lim ---- 7— ;

 

Т - > С О

1

 

С =

max lim

ЩѴр)

(3.5)

----~— .

 

Т-> оо

1

 

Обозначим через N(T) число~всех возможных последова­ тельностей сообщений, вырабатываемых источником, дли­ тельностью Т. Тогда энтропия Н(ХГ) максимальна/если

все эти

последовательности

равновероятны,

равна

log N(T),

и выражения (3.4) и (3.5)

можно переписать в

виде

 

 

logyvm.

 

 

 

С =

Нт

 

 

 

 

Т-г оо

т

 

 

 

 

Сс =

lim

log^

(r),

-

(3.6)

 

 

7'-оо

J

 

ь

 

где Nk(T) — число всех возможных кодированных после­ довательностей длительностью Т.

63


Задача 1. Определить пропускную способность линии связи, использующей для передачи сообщений код с осно­ ванием т (т. е. с т различными символами). Длитель­ ность всех символов кода одинакова и равна т. Ограни­ чения на допустимый вид кодовых последовательностей символов не накладываются.

Р е ш е н и е. Рассмотрим последовательность из М ко­ довых символов. Длительность ее Г= Мт. Количество различных последовательностей, которое можно составить из т символов по М штук в каждой,

Nk(T) = m ■VI

Подставляя (*) в (3.5), получаем

а

lim

log т:.'И

1

М т

= — log от.

 

М- 00

 

Если используется двоичный код, то т 2 и Сс=Д((5ит/с).

Задача 2. В условиях предыдущей задачи-определить пропускную способность линии связи, если на допустимый вид кодовых последовательностей накладываются неко­

торые ограничения.

сигналов

Р е ш е н и е. Энтропия кодированных

длительностью Т = М і

 

H(YT) = MH(Y),

(3.7)

где H(Y) — энтропия кодовых символов, вычисленная с учетом наложенных ограничений. Подставляя (3.7) в (3.6), получаем

С

с

max lim

МЩУ)

 

M-hсо

Ml

max H{Y)

(3.8)

где максимум отыскивается с учетом наложенных ограни­ чений.

Задача 3. В информационном канале используется код, при котором запрещается передача подряд двух одинаковых символов. Алфавит кода состоит из четырех различных символов. Вероятности передачи всех разре­

шенных пар символов одинаковы. Длительности

всех

символов также одинаковы

и равны і = 10“3с. Опреде­

лить скорость передачи информации.

( і =

Р е ш е н и е . Обозначим

символы кода через ус

= 1, 2, 3, 4). Число различных пар, которое можно соста-

64


%

вить из четырех различных символов, равно 42= 16. Че­ тыре из них (уі,Уі) запрещены. По условию,-вероятности разрешенных пар кодовых символов одинаковы. Поэтому

1/12,

і =r/;

ҢУп Уі) =

i = j .

о ,

Чтобы найти энтропию кодовых символов, необходимо воспользоваться формулой, учитывающей вероятностную связь между двумя символами кода:

ЩУ) = - і і

У] ) 1ogP(y>i/yj).

/=і /=і

 

По формуле полной вероятности

Р(Уі) =

Т

(^ = ь 2. 3, 4).

 

 

j= 1

 

Из теоремы умножения вероятностей

Р (ѵ ,а д =

 

1/3, і ФГ,

 

=

 

 

О , / = /..

При этом H(Y) =

1,585 (бит) : Подставив это значение

в (3.8)-, получим -

 

 

ЩУ)

1,585

= 1585 (бит/с).

 

10‘ 3

 

 

Задача 4. Доказать, что в условиях предыдущей зада­ чи найденная скорость передачи является максимальной и равна пропускной способности линии связи.

Д о к а з а т е л ь с т в о . Внутренняя сумма энтропии

Щ У ) = - S P (y j)S p ( y tly j)1 o g Р ІУ і/y j)

j= 1 /»1

максимальна, когда условные вероятности Р(уіІУу) всех разрешенных переходов i=£j равны между собой.(см. свойства энтропии), т. е.

5 З а к . 2340.

65