Файл: Толстоусов, Г. Н. Прикладная теория информации учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 30.10.2024

Просмотров: 65

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

меру неопределенности. Наибольшей неопределенностью источник обладает при равновероятных состояниях. Тогда все состояния рав­ ноценны и наы необходимо выбирать одно состояние среди одинако­ вых. Здесь мы испытываем наибольшие затруднения и информация о действительном состоянии источника для нас наиболее ценна.

Единицы измерения энтропии зависят от основания логарифмов, выбранного при вычислении энтропии согласно соотношении (4 .18). Для двоичной системы счисления, когда основание логарифмов рав­ но 2, энтропия измеряется в битах. При использовании десятичных логарифмов энтропия измеряется в дитах; при натуральных - в нитах.

Зависимость энтропии источника

с двумя возможными состояниями от ве­

роятности состояний показана на рис.

4 .3 . На рисунке обозначено

рі » p

,

тогда $t=» I - р

. Видно, что в

качестве единицы энтропии, равной I

биту, можно принять энтропию источ­

ника с двумя равновероятными состоя­

ниями.

 

 

 

Для численных расчетов

удобно

пользовгться таблицами функции

 

t f p b - P t y z P

.

при­

водимой в литературе

по теории ин­

формации [З] .

В заключение заметим, что выражение (4.18) для вычисления энтропии можно представить как математическое ожидание логариф­ ме вероятности состояний источника

 

Н(Х)= м[- &$Р(Х)] t

(4.23)

где Н(Х) -

энтропия источника

информации

X ;

М[ 3 -

операция математического ожидания;

P C X ) -

вероятность любого

случайного

состояния источника,

 

рассматриваемая как

случайная

величина.

Действительно, состояния источника случайны. Вероятность

появления

состояния

равна

. Если мы поставим в соот­

ветствие

появлению состояния Хі

появление величины - toflp. »

22


то последняя тоже станет случайной и будет появляться с вероят­ ностью рс .

Понятие энтропии как математического ожидания будет исполь­ зовано в следующих параграфах.

§ 5. Энтропия объединения независимых источников

По линии связи одновременно могут передаваться сообщения нескольких источников информации. Поэтому с целью создания луч­ ших условий передачи целесообразно рассматривать эти источники не изолированно друг от друга, а совместно, как один сложный, комплексный источник, называемый объединением источников.

 

Рассмотрим вначале объединение, состоящее из двух дискрет­

ных источников информации X

и У .

sc, , х г

 

Пусть

источник

X

имеет

возможных состояний

. . .

Хп ,

а

источник

Y

ийеет пг

возможных состояний

yt ,

. . .

.

По каналу

связи передается сообщение о действительном

состоянии обоих источников. Тогда сообщением могут быть все по­

парные

комбинации состояний источников: Xtyi ; Х,ул . . .

Хп

* т*е. всего имеем ГЪ*т разных сообщений. Под состо­

яниями объединения понимаются все комбинации состояний источни­

ков, входящих в объединение.

Чему равна

вероятность

одного

из

состояний

объединения

X^

? Это есть

вероятность произведе­

ния, т .е . одновременного появления двух

событий: X - Х с

(ис­

точник X

находится

в состоянии

Х0 )

и Y~*/y

(источник

Y находится в состоянии

) .

Эту

вероятность обозначим

следующим образом:

 

 

 

 

 

 

 

Рѵ = р [ х ~ х і ; у . ^ ]

ш

 

Объединение есть некоторый источник, у которого возможны т*гь состояний. Если известны все вероятности этих состоя­

ний (5 .1 ), то

энтропия объединения Н(Х Y)

по определению энтро­

пии источника

(Ф.І8) может быть записана следующим образом:

 

H< x r h - ifc P v &>?Pv .

t o )

Используя операцию математического ожидания, выражение (5.2) может быть записано в вида

25


И(ХГ)=м[-еодР(ХУ)],

(Si)

где P(XY) - вероятность состояния объединения,

рассматривае­

мая как случайная величина.

Полученное выражение для энтропии объединения зависит от вероятности произведения состояний источников. Эта вероятность вычисляется различным образом для различных видов взаимосвязи

между источниками.

 

Предположим, что источники X и У

независимы. Для не­

зависимых источников вероятности состояний одного источника не зависят от того, в каком состоянии находится другой источник.

Пусть источник X

характеризуется табл. 5 .1 ,

а источник У

- табл. 5 .2 ,

где

^

есть вероятность состояния ß

 

 

 

Таблица

 

б .І

,

Таблица

5 .2

Хі,

Xi

Xx • • •

РЛ

ь

& • * • Ѵѣ

Pi

Pt

Ръ

« • «

J L L

• »

-

Вероятность произведения

состояний для независимых

источ­

ников равна

произведению вероятностей этих состояний:

 

 

 

 

ІѴ=АѴ

 

 

(SM

 

 

 

 

 

 

 

 

P (X Y hP iX )P {Y ) .

 

(SS)

 

Подставив

(5.5)

 

в (5 .S ), получим

 

 

Н(ХykM j-fy[m )P(Y)]J=r{-tofi)(K )]+M [- & уР (у/

Используя выражение для энтропии дискретного источника в виде (4.23), имеем

//(ХУ)=н(хІ+н(г). (S6)

Полученный результат может быть обобщен для объединений, составленных из произвольного числи независимых источников:

24


н(х у zw... )=н(х)+н(у)+н(г)+h (w)+...

ш)

Энтропия объединения независимых источников равна сумме энтропий источников, входящих в объединение.

§ 6 . Энтропия объединения зависимых источников Условная энтропия

Рассмотрим объединение двух зависимых дискретных источни­

ков информации X

и У , Источники называются зависимыми,ког­

да вероятности состояний одного источника зависят от того, в

каком состоянии находится другой источник.

Вычислим энтропию объединения зависимых источников. Веро­

ятность состояния

объединения Р (Х У) в этом случае равна

произведению вероятности первого источника на условную вероят­

ность

второго. Принимая, например, ъ качестве первого источник

X

, имеем

 

 

Р(Х У)=Р(Х)Р( Y/X),

 

 

 

(6.1)

где Р(У/Х)~

условная вероятность источника

У

,

вычисляемая

 

 

при известных состояниях

источника

X .

Подставив

(6.1) в выранение для

энтропии объединения

(5 .3 ), получим

 

 

 

 

 

Первое слагаемое в правой части согласно

(4.23)

представля­

ет собой энтропию первого источника:

 

 

 

 

 

 

Н{Х)=м[- £о$Р(Х)].

 

 

(65)

Рассмотрим второе слагаемое выражения (6 .2 ) .

Условная ве­

роятность Р(У/Х)рассматривается здесь

как случайная величина.

Случайными

являются состояния

 

),

для

которых

вычисляется

вероятность и условия ( Xf ,X z ...

x ^ ,

), при ко­

торых эти вероятности вычисляются. Каждое конкретное значение - появляется с вероятностью, равной вероятно -

сти произведения , т .е . одновременного появления как

25


Y- , так и X - X c . Поэтому математическое ожидание необходимо определить следующим образом:

 

 

 

м[-& уР(У/Х)/=-£1 Р¥ ео$р(у./хс) ,

 

 

(ел)

 

Для конкретных значений

Х - х ^

и

У~у#

согласно

(6.1)

имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя

(6 .5)

в (6 .4 ),

получим

 

 

 

 

 

 

 

м[-&уР(У/х)]=£рс[-1 Р^Ю & уРІЪ/Хі)].

 

 

(6-6)

Выражение

в квадратных

скобках

 

 

 

 

 

 

 

 

 

 

 

 

H (Y/xl)=- Z p fa /x J Coypfa/xc) t

 

 

(е.г)

согласно (4 .1 8 ),есть энтропия

источника

У .

В

это

выражение

вместо

априорных

вероятностей

источника

У

входят

условные

вероятности P (y J

,

которые

необходимо

использовать,ког­

да

нам

известно,

что источник

X

находится

в

состоянии

х с .

Поэтому энтропия

Н (У /хс)

называется

частной

условной

энтропи­

ей источника. Это мера неопределенности источника

У

,

кото­

рая остается, когда нам известно,

что

зависимый

от

У

источник

X

находится

в

состоянии

 

 

.

Частная условная

энтропия ис­

точника

У

ость

величина, которая может изменяться

в зависимо­

сти

от

состояния

источника

X

 

. Вычислим среднее значение вели­

чин Н(У/хс )

,

которое обозначим чере > И(Y /X )

. Осредняя

по

всем

состояниям источника

X

,

получим

 

 

 

 

 

 

 

 

 

 

H(Y/X)=lpc Ы г М .

 

 

 

 

(6.8)

Величина Н(У/Х)

называется

условной

энтропией

источника У .

Используя

(6 .6 ),

(6.7)

и (6 .8 ),

имеем

 

 

 

 

 

 

 

 

 

 

 

 

H (Y/X htl[-eoyP (Y/X )J

 

 

 

 

(в-9)

 

Таким образом, неопределенность источника может измеряться

двумя видами энтропий:

обычной

Н(У)

и

условной Н(У/Х),

26