Файл: Толстоусов, Г. Н. Прикладная теория информации учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 30.10.2024

Просмотров: 69

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

cLx. - lün to o & x .

(zo.b)

лх-»0

а

 

Таким образом, энтропия равна двум слагаемым. Ъторое слагаемое равно бесконечности. Этого и следовало ожидать, так как число возможных состояний у непрерывного источника бесконечно. Следо­ вательно, и степень неопределенности состояний также должна

быть

бесконечной. Однако можно

условиться,

что для всех объек­

тов,

которые мы будем изучать,

величина й Х

одинакова. Тогда

второе слагаемое для всех объектов будет одинаково и мы прини­ маем его за нуль отсчета. Сравнивать же все объекты между собой будем по первому слагаемому, которое называется приведенной энтропией:

Далее будем рассматривать только выражение (20.4) и термин "приведенная" упоминать для краткости не будем.

Рассмотрим, какой вид закона распределения обращает выра­ жение (20.4) в максимум. Иначе, какие непрерывные источники об­ ладают максимальной энтропией? Плотность вероятности lJ(х)

не мо.-.ст быть произвольна, а должна’удовлетворять ряду ограни­ чений. Например, интеграл от плотности вероятности, взятый по всему диапазону, равен единице:

izos)

Поэтому должна рассматриваться вариационная задача на поиск.ус­ ловного экстремума.

Укажем общий метод решения таких задач. Пусть надо найти вид функции 2*Г(х) , при котором некоторый функционал экстре­ мален: ^

II5

Доланы быть учтены дополнительные условия, ограничивающие ЬГ(л),

вида ^

J'yjcc,

bffxjJcCx-A^ cofbst,

 

 

 

:

f

(мл)

<?%!X.,

hF(x.}]cCx-Ar^corbst.

 

 

а.

Составляется в соответствии с методом, указанным в § Ч, вспомо­

гательный

функционал с привлечением неопределенных множителей

Лагранжа:

e

g

&

%=JFcLx +Xt[J%

cCx-/1]+"-+Лп[ІУк<&-An,],

(M?)

~a.

*0.

"a-

этого

Заметим, что

t)f = (j

. Записывается условие экстремума

функционала, которое совпадает с условием экстремума исходного функционала:

дЭ<_ d F

Qu- +.

д<^ ~ п

 

Сгоя.)

дьГ - дъг

 

 

 

Далее (

гь + і

) неизвестные

ьГ,кі,... Ап,

определяются

из

( П+ /

) уравнений (20.8)

и (20 .6).

 

 

Найдем источники, обладающие наибольшей

энтропией в

слу­

чае, когда область возмокных состояний источника ограничена

сверху и снизу.

В этом случае

говорят, что

источник обладает

ограниченной пиковой мощностью . Пусть верхняя и нижняя грани­

цы области

обозначены через Л и ё

соответственно. Тогда

находится

экстремум энтропии

 

 

6

 

H ( X h - J l r ( x ) & y i S ( x ) d x ;

при дополнительном ограничении

ßr(x)cCx.-i. (яа9)

'съ

ІІб


Условие экстремума ( 2 0 . 8 ) примет вид

?[- ьГ&XJ ьг]

д[ъг]

fajiS-faje+Aj-O.

dzJ-

Л ' дьГ -

Отсюда видно, что плотность вероятности

поотоянна. Значе­

ние плотности вероятности

находим из

(20.9).

Получаем

g-Q, ■

Экстремальным в данном случае является равномерный закон распределения. Величина энтропии согласно (20.4)

а

Найдем источники, обладающие максимальной энтропией, ког­ да на область возможных состояний ограничений нет. Задано сред­ неквадратичное значение параметра источника или, как говорят,

•источник обладает ограниченной средней мощностью . Определяется экстремум энтропии

При дополнительных ограничениях

где - заданная средняя мощность. Условия экстремума (20.8) примут вид

-Содъг-

Проведем ряд преобразований:

 

 

âo(if- е) =(аі +A33üL)£rtz ,

 

(Л,-і-Я^хЧ6ъЛ-і

jsjc*

(ZOZZ)

ъГ- е

,

ІІ7

где Ы, и - некоторые константы.

Для их определения проведем следующие рассуждения. Запишем плотность вероятности для нормального закона распределения

 

 

 

_

/

 

Сравнивая

с (20.12), видим, что полученное решение

соответству­

ет нормальному закону распределения с

нулевым математическим ожи­

данием. Дисперсия закона распределения

задана по условию задачи

и равна

«s'*

. Следовательно,

при заданных условиях экстремаль­

ным является

нормальный закон

распределения

 

 

 

j

 

 

(za**)

 

 

ы ( х , ) = е

 

 

Найдем величину энтропии. Предварительно получим

 

 

 

- is p .e ° F

(**>

Подставим

(20.13) и (20.14) в

(20.11).

Имеем

 

H(X)=~Sof^^ßj-(x,)dx+4^/ х . гъГ(х)сСх.

Zoo

- оо

Первый интеграл равен единице,

второй - дисперсии. Поэтому

Для любых дискретных источников энтропия максимальна в случае равновероятных состояний. Условия максимума энтропии непрерыв­ ных источников зависят от вида ограничений, накладываемых на область возможных состояний источника.

Рассмотрим объединение двух непрерывных источников и

У .

Частная условная

энтропия источника

У при

заданном со­

стоянии источника ЗС

, равном

, определяется

выражением

(20 .4). Только вместо

априорной плотности

вероятности

следует

подставить условную плотность

вероятности іХ (у/Х і )

:

п а



 

 

 

( Z Q K )

Средняя условная энтропия источника У

получается в результа­

те статистического

осреднения по всем

состояниям источника X :

 

о"»

 

 

Н {у/Х )= ^н(у/х ) ъГ(х)сіх =

 

-

-jybTfx^f&xjurfyjocjctxcL^

(юл)

Энтропия объединения двух источников такие монет быть получена аналогично выражению (20 .4). Так как вероятность состояния объе­ динения определяется двумерной плотностью вероятности Л~(х,у/ * получим

Н (Х Y h jJ '< ф , y )te jb T (x y j d x t y .

ОО

Если источники независимы, то

ъг(х,ц)=ъГ(х)ъГ(у)^

и после преобразования получим

H(XY)=HpC)+H(Y).

Если источники зависимы, то

ъГ(х,ц)-ъГ(х)ъГ(у/х),

и после преобразования имеем

H(XYhH(X)+н(у/х).

Для непрерывных источников получены такие ке соотношения, что и для дискретных источников.

§ 21. Пропускная способность непрерывного канала связи

Рассматривается канал связи, передающий сообщения непре­ рывного источника информации х(-б) . В канале связи действует помеха п (б ) в виде случайного процесса. Пусть непрерывное

119

принимаемое сообщение

 

 

Ц(-Ь)=Х.(Ь)+Гъ(Ъ).

 

 

(Ztl)

Предположим,

что сообщение x f é j

и помеха іъ(і) имеют

спектраль­

ные плотности

с одинаковой полосой

частот

'[Л/‘ .

Тогда

спектраль­

ная плотность

принимаемого сообщения у(Ь)

будет

иметь

ту же

полосу

W .

Следовательно, по теореме Котельникова каждый из

трех случайных процессов JCft) ,

у(ь) и

гь(Ь)

на интервале

времени

Т

может быть представлен с помощью ZT~W

отсчетов.

Времена

отсчетов с одинаковым порядковым номером

для всех трех

процессов будут одинаковы (рис. 2 I . I ) . Количество информации в переданном сообщении определяется равенством

 

^

y-H(Y)~H(Y/X) . Quz)

 

Для энтропии объединения

 

источника и получателя мож­

 

но

записать

 

н (х,у)-н (х,х+ ф н (х//1

 

так как все состояния рас­

 

сматриваемого объединения

 

и их вероятности определя­

 

ются только сочетаниями по­

 

лезного сигнала и помехи.

 

Предположим, что передава­

 

емое сообщение X и поме­

Рио. 2 1 .I

ха

А/

статистически неза­

висимы.

Тогда

 

Н(Х7)=Н(Х)+Н(А/).

С другой стороны,по свойству энтропии объединения

HtXY)= н(х)+Н (У /X).

Следовательно, величина потери информации обуоловлана только шуиами и равна энтропии помехи

120


H(Y/x ) = H(aJ),

(ли)

Вместо (21.2) запишем

Н(У) -Н(Ы). (21Л)

Найдем пропускную способность канала - максимально возможную скорость передачи информации ~

~ г г и ^ с [ н ( У ) - И ( А / ) ] ѣ ( u s )

При вычислении пропускной способности технические характеристи­ ки канала связи, в том числе и характеристики помехи, считаются заданными и не варьируются. Так как характеристики помех часто бывают неизвестны, предположим, что в канале существует наихуд­ ший вид помехи, вызывающий наибольшую потерю информации. Тогда характеристики помех определяются из условия максимума энтропии

помехи

Н(/Ѵ7 . Таких условий два. Они заключаются в том, что

отсчеты

помехи по Котельникову должны быть независимы, а энтро­

пия одного отсчета максимальна. Средняя мощность помехи ограничена.Следовательно, худшая в смысле потери информации помеха име­ ет вид случайного шума, у которого закон распределения нормаль­ ный, а спектральная плотность постоянна. Энтропия такой помехи длительности Т

и(//)=■ z t \ JСод(

(***>

где én. - стандарт помехи.

 

Варьируя при заданном H(N)

выражение (21 .5), получаем,

что скорость передачи информации будет равна пропускной способ­ ности в том случае, когда энтропия принимаемых сообщений H(Y) будет максимальна. Следовательно, надо организовать передачу так, чтобы принимаемое сообщение имело вид случайного шума (по­ стоянная спектральная плотность и нормальный закон распределе­ ния). Причем это условие сохраняется для любой помехи, если

она не зависит от

передаваемых сообщений х ( і )

Максимальное

значение энтропии

І2 І

 

 

 

т ол. H(Y)*zTU& y(\/zm '<)

 

{ж)

где <äу

- стандарт принимаемых

сообщений.

 

 

 

Найдем вид

передаваемого сообщения

x (t)

. Из выражения

(21 .1)

и

условия независимости Щс) и

гь(Ь)

следуют

выраже­

ния для

спектральных плотностей:

 

 

 

 

 

 

 

 

 

 

 

Sy(cj)=S^{o))+Sa ( cJ)

 

 

 

(ш )

и дисперсий

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

{11.3)

Согласно

выражению

(21 .8), где Sa = const

и S^-co/isi

 

,спѳк-

тральная

плотность

передаваемого

сообщения

Sx

должна

быть

постоянна.

Дна

отсчета

X .(ti)

к

^ (U )

,

один из

которых

Щ£с)

 

 

имеет нормальный закон распределения,

образуют

при

сложении

отсчет

^ ( ^ і )

» который

также

имеет

нормальный

за­

кон распределения. Это может быть только тогда, когда отсчеты

Щи)

имеют

нормальный закон распределения. Следовательно,

X (t)

должно

представлять собой случайный шум. Таким обра­

зом, при помехе

в виде случайного шума скорость ц^И)дачи инфор­

мации будет максимальна, если передаваемое сообщение закодиро­ вать так, что отсчеты его будут взаимно независимы и распреде­ лены по нормальному закону.

Для определения величины пропускной способности подставим

в (21.5)

выражения

(21 .6), (21.7)

и (21.9); получим

 

 

tèjr' +

Отношение

дисперсий

сигналов

можно заменить отношением их

средних мощностей -jp- . Тогда выражение пропускной способнос­ ти непрерывного канала связи для принятых условий имеет вид

c -w a y(f+

Uno)

122