Файл: Бовбель, Е. И. Элементы теории информации.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2024

Просмотров: 61

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Р е ш е н и е . Подставим (1.31) в (1.26). Получим

со

dx -|-

+• 2 У 24V-. гСУ3 log ^

 

X“ ехр

 

 

= log \/2тс оЛ. -|-

Y

log е =

log \/2~ £ з ѵ.

(1.40)

Как видно, энтропия убывает с уменьшением дисперсии, что согласуется с нашей интуицией.

Задача 5. Имеется два источника флюктуирующего напряжения с одинаковой энтропией, но разными зако­ нами распределения вероятностей: первый — гауссовским законом, второй— равновероятным. Сравнить их мощ­ ности.

Р е ш е н и е . Как мы знаем, энтропия источника с га­ уссовским законом распределения вероятностей

/-/Е(Л') = log \/2пеаГі

а с

равновероятным

 

 

 

Ht(X) = log (b—a),

 

где

Ор — дисперсия

(мощность, выделяемая

на единич­

ном. сопротивлении)

напряжения первого

источника;

(Ь—а )— ширина интервала возможных напряжений вто­ рого источника.

По условию задачи, источники обладают одинаковой информативностью, т. е.

\/2тс 6 ог b’— а.

По определению, дисперсия для равновероятного распре­ деления

°і = (’ (* — < * » 2 w(x) dx =

00

= , u _ £ + ^ l

* . _ # — >■

b a

12

a

 

44


откуда b — и

2 \/З с р и, следовательно,

\/2~ е ог = 2 \/3 зр

или

Таким образом, при одинаковой информативности источ­ ников выгоднее использовать тот,'у которого гауссовское распределение вероятностей напряжений, ибо ом расхо­ дует при этом на 42% меньше мощности, чем источник с ■равновероятным распределением напряжений.

Задача 6. Плотность распределения .вероятностей случайной величины X неизвестна.. Произвести оценку от­ носительной энтропии в случаях: а) известно, что w(x) отлично от нуля в интервале шириной R; б) известна дис­ персия случайной величины X.

От в е т : а) H ( X ) ^ \ o g R ; 6 ) Н(Х) < log \/-2кео.

I

Г Л А В А 2

ИСТОЧНИКИ ДИСКРЕТНЫХ СООБЩЕНИЙ

§ 1. Эргодические источники и их энтропия

Объект, состояние которого определяется физическим процессом, протекающем во времени по заранее не из­ вестному закону, назовем источником сообщений. Будем считать, что число возможных сообщений, вырабатывае­ мых источником, конечно, и обозначать их символами Х\, Х о , ..., хп. Чтобы определить среднее количество инфор­

мации, создаваемой дискретным источником на один сим­ вол или в единицу времени, необходимо прежде выяснить, какие вероятностные показатели могут характеризовать данный источник. Ясно, что одних вероятностен появле­ ния символов недостаточно, так как между символами ре­ альных источников имеется статистическая зависимость (буквопечатающее устройство текстов на русском язы­

ке— пример такого источника).

 

диск­

Достаточно хорошей математической моделью

ретных

источников,

встречающихся на

практике,

явля­

ются так называемые э р г о д и ч е с к и е

источники. На­

зовем

эргодическим

источником r-го порядка такой ис­

точник, у которого

вероятность

появления

некоторого»

символа Xj зависит только от г предыдущих,

т. е.

P { X j \

Х<2),

X j p ) =

 

= P(xj

I 4 й,

x f ...... xjfK xj;-'-1)).

 

Таким образом, в эргодическом источнике /*-го порядка распределение вероятностей выбора символов p(xt) не остается постоянным, а зависит от того, какими были по­ следние г символов сообщения. Эти последние г симво­ лов определяют некоторое состояние Sk источника (k = = 1, 2, ..., m). Число »всевозможных состояний источника /'-го порядка, имеющего п различных символов, очевидно, определится выражением т = п г.

46

ч


Эргодические последовательности символов обладают теміі же свойствами, что эргодические случайные функ­ ции: любая достаточно длинная (с большим числом сим­ волов) эргодическая последовательность с вероятностью, как угодно близкой к единице, является типичной. По­ следнее означает, что в этой последовательности содер­ жится вся информация о вероятностях отдельных симво­ лов и о вероятностных .связях между ними, присущих источнику. В качестве примера эргодических последова­ тельностей можно привести язык, так как почти -в любой книге (не узкоспециализированной) на данном языке частота отдельных букв и сочетаний разных букв одина­ кова, хотя смысловое содержание книг различно.

Соотношение

О Д

= - £ Р(х,) log Р(хі)

(2.1)

 

/= 1

 

не может быть

использовано для вычисления

энтропии

эргодического источника, так как при его получении не учитывались вероятностные связи между символами. Оно выражает энтропию источника, у которого символы хі вырабатываются независимо друг от друга.

Устанавливая энтропию эргодического • источника, предположим, что он работает длительное время и, вся­ кий раз, когда мы ждем появления очередного символа, нам известно, какие символы были выработаны ранее, и, следовательно, известно, в каком характерном состоянии находится источник.

Обозначим через P(Si) вероятность того, что источ­ ник находится в состоянии 5/, причем

т

 

2/> (& ) = !■

(2-2)

/=1

 

Предположим, мы установили, что источник находит­

ся в состоянии 5/. У нас имеется

неопределенность, из

какого состояния Sk источник, выработав некоторый сим­ вол, перешел в состояние 5 t. Так как вероятность состоя­ ния St зависит только от предыдущего состояния Sk и не зависит от того, в каких состояниях находился источник ранее (по определению состояния), неопределенность ис­ точника в состоянии S k можно найти по формуле, анало­ гичной (2.1):

H(Sk) = - 2 /> С З Д ) log Р (S/АЗД. .

1\к

47


Величина H (S k) случайно меняется в зависимости от состояния источника, поэтому только среднее значение li(Sfi) может характеризовать энтропию источника:

ч

т

 

ЩХ) - 2

p(s«)

) =

 

 

т

/:«=1

 

 

 

р (5 *) р ( З Д ) log PißiiSu) =

 

= - 2

2

 

k=ii/k

 

 

 

 

 

П1

 

Sk)\ogP(S,lSk),

 

=

2 2

P(5 "

(2.3)

 

£=1 l/k

 

 

 

где значок l/k у суммы означает, что производится сум­ мирование по всем переходам из состояния Sk b S^.

Задача 1. Сколько различных последовательностей, со­ держащих по 5 символов, можно составить из алфавита, содержащего два различных символа?

От в е т :

т — 25 = 32.

Задача 2,

Источник, используя алфавит из двух сим­

волов Х\ и ,ѵ2, вырабатывает последовательность хь х2>х% Хи Хо, хь Х2>Л'і ... Вероятностныесвязи в данной последова­

тельности имеют

место ‘между четырьмя символами.

Определить все возможные состояния

источника и по­

рядок их следования в данной последовательности.

Р е ш е н и е .

В условии задан эргодический источник

третьего порядка (г— 3). Поэтому число

различных со­

стояний источника равно 23= 8 . Выпишем их, нумеруя со­ стояния соответствующими индексами:

Х[Х{Х{— Sin

х {х2х2— Si 22

ХХХ\Х2— 3\}2

Х2Х\Х2— S212

Х\Х2Х\$121

Х2Х2Х1— S221

Х2Х\Х\— S2ii

Х2Х2Х2 S222

Чтобы установить, в каком состоянии находится источ ник, необходимо подождать, пока он выработает три сим вола. Поэтому в последовательности Х\Х2Х2Х\Х2Хі*2*і...

первым состоянием является <Si22. Затем источник после появления символа х\ переходит в состояние S22i и таг далее. Получается следующая последовательность состоя ний, проходимая источником:

’122

’221

• ••

48


Задача 3. Показать, что при отсутствии вероятностной связи между символами из формулы (2.3) следует фор­ мула (2.1).

Р е ш е н и е. Когда символы источника независимы, как следует из равенства

PiXj/xW, ..., *<'>) = P{Xj),

у источника имеется лишь одно состояние So, вероятность которого, на основании (2.2),

'P(So) = \.

(2.4)

Поэтому при появлении символа хс источник вновь воз­ вращается в состояние So, при этом

P(S0/S0) = P(xi).

(2.5)

Подставляя (2.4) и (2.5) в (2.2), получаем

# ( * ) = ■ - 2 Р (хі) log Р(хД *= ■

£=1 /=1

ъ в

= - 2 P(Xi) log P(Xi)„

1=1

так как число различных переходов из So в S0 равно чис­ лу различных символов источника.

Задача 4. Получить из (2.3) формулы для энтропии эргодического источника, когда вероятностные связи име­ ют место между: а) двумя ^символами; б) тремя; в) че­

тырьмя.

\

Р е ш е н и е .

В случае а), как следует из равенства

t

состояний (столько,

у источника имеется п характерных

сколько различных символов): S\— после появления сим­

вола Х\; S 2— после появления символа х2 и т.-д. Поэтому

вероятность состояния Sk

P(Sk) = P ( x k),

(2.6)

а вероятность перехода из состояния S k в St

P(S,/Sk) = Ңл:,/**).

(2.7)

4 З а к . 2340.

4 9