Файл: Бовбель, Е. И. Элементы теории информации.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2024

Просмотров: 54

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ров, когда после получения информации у нас остается еще некоторая неопределенность. Вот два из них.

1. Пусть известно, что напряжение на клеммах не торого источника может изменяться в пределах 180— 230 вольт. Поэтому на вопрос, каково напряжение в дан­ ный момент времени с точностью до одного вольта, мож­ но высказать 51 предположение: 180, ..., 230 вольт. Пусть опыт заключается в измерении напряжения с точностью ,±'5 вольт. Произвели опыт. Напряжение оказалось рав­ ным 220 вольт. Значит, на самом деле истинное значение напряжения находится где-то между 215—225 вольтами.

Тогда заключаем, что после такого опыта на

ннтересую-

 

щий нас вопрос можно высказать

Шим

уже

11 предположений: 217, ...,

223 вольта. Таким образом, пос­

 

_______ _____

ле

получения информации хотя

 

 

 

 

 

 

Линия

и

остается некоторая

неопреде­

связи

ленность, но эта неопределен­

Рис. 2

ность

становится

меньшей,

чем

до опыта.

 

 

 

 

 

 

 

За счет чего мы уменьшим неопределенность об ис­

тинном значении

напряжения источника?

Очевидно,

за

с,чет того, что в результате опыта мы приобрели некото­ рое количество информаций, численно равное разности между количеством неопределенности до и после опыта. Вычислим его в предположении, что все значения напря­

жений равновероятны.

Тогда

энтропия до опыта Н { =

= log 51 = 5,672 (бит),

а

после

опыта

Я 2 =

log Ы =

=3,459 (бит), и-количество

информаций

об

истинном

значении напряжения (с точностью до 1 вольта)

от тако­

го опыта

/ =

Н\—# 2= 2 ,2

(бит).

Очевидно,

повышая

точность измерения, мы увеличим

количество

получае­

мой • информации.

 

 

 

 

 

 

2.

Пусть

имеется

некоторая

линия связи, в которо

действуют шумы, искажающие передаваемые по ней сиг-’ налы (рис. 2). По линии связи передаются сообщения, составленные по некоторому закону из п различных сиг­ налов хі . Сигналы, смешавшись с шумом, поступают на выход линии связи. Обозначим принимаемые сигналы буквой y j ( j = \ , 2, ..., m ). После приема сигнала у г мы не

можем достоверно сказать, какому из переданных сигна­ лов х і он соответствует, так как случайный шум может

из любого сигнала хі создать подобный ему сигнал у г.

24


В этом случае для принятия правильного решения необ­ ходимо использовать вероятности P(xijyj).

Если, к примеру,, они оказались такими, что любой сигнал хі (кроме.хг) со сколь угодно малой вероят­ ностью (раз в столетие) может превратиться в уг , то, приняв этот сигнал, мы с как угодно близкой к единице вероятностью можем утверждать, что был передан х п так как

п

 

2 Р(Хі/Уг) ^ Р(хг/Уг) = 1.

( 1. 18)

Если бы дело обстояло так со всеми передаваемыми сиг­ налами х і (і= \ , 2, ..., п), мы могли бы считать, что в ка­ нале связи вообще отсутствуют шумы, и соотношение бы­ ло бы справедливо для всех сигналов л>*

Иначе говоря, после опыта (после приема какого-либо сигнала y j ) у нас нет никакой неопределенности в соот­ ветствии принятого у] переданному хі , и количество*ин­ формации,содержащееся в yj о хі, численно равно неоп­ ределенности принять в данный момент какой-либо сиг­ нал X і, т. е. энтропии ансамбля сигналов

1(Y, X) = Н(Х).

Однако наибольший интерес представляет другой крайний случай, когда искажения сигналов в линии свя­ зи таковы, что любой из сигналов хі может с равной ве­ роятностью перейти в любой из сигналов yj. Это соответ­ ствует случаю, когда сигналы yj и хі статистически не­ зависимы (см. задачу 2 §.2), т. е.

Тогда, наблюдая у\лмы не получаем никакой информации о х і . Что же необходимо предпринять при таком разру­ шающем действии шумов на передаваемую информацию? Имеется единственный выход— подобрать такое разли­ чие (вид модуляции) в передаваемых сигналах хі , чтобы вероятности искажений были как можно ближе к (1.18).

Подсчитаем количество информации, имеющееся (в среднем) в сигнале yj о сигнале хі при произвольной ста­ тистике искажений p(xi/yj).

25

Среднее количество неопределенности, которым мы обладали до опыта, равнялось Н(Х). Представим теперь, что мы примяли какой-то сигнал yj (к примеру, tjn) и оцениваем, какова неопределенность (после опыта) соот­ ветствия его некоторому переданному хі (к примеру, х\). Эта неопределенность равна

— log P(xi/yj) = Н{х,-:;У]).

Как видим, неопределенность этого соответствия яв­ ляется случайной величиной, значения которой при каж­ дом заданном у j наступают с вероятностями P(xi'yj). Поэтому среднее значение количества неопределенности

соответствия данного yj

2) любому из хі

ЩХ/'У;)

п

Р(хіj) log P{XilУj).

= - V

 

І“ 1

Величина H(X/i/j)

также случайна. Вероятности ее зна­

чений равны Р( уj). Тогда среднее значение H(X/yj) оп­ ределит среднее количество неопределенности соответст­

вия любого yj

любому из Л'I. Обозначим

это среднее

H(XIY).

 

 

т

 

 

 

Щ Х /Y) =

 

 

 

V H{Xiyj) P(yj) =

 

 

п

in

/= 1

 

 

 

 

Р[Х‘'

1о§ p (x'!yß-

 

=

— У)

2

 

 

<•= 1 /= I

 

 

 

 

Другими словами, H(X/Y)

есть

средняя

неопределен­

ность в передаче того или иного хі, если

известно, что

принят тот или иной у р

или, кратко, средняя неопреде­

ленность ансамбля X после опыта.

Таким образом, мы установили, что неопределенность передачи некоторого сигнала X до опыта Н(Х), а после опыта H(X/Y). Поэтому количество информации, имею­

щееся в Y о X:

.

 

I(Y, X) =

Н(Х) — H(XiY).

' (1.19)

Эта мера количества информации получена нами на при­ мере передачи сообщений по каналу связи. Совершенно аналогичные рассуждения могут быть применены к слу­ чайным объектам произвольного вида и приведут нас к той же мере.

26


На основании свойств энтропии 4 и 6

M(Xt Y) = Н (Y) + Н (X/Y).

Подставляя этр выражение в (1.19), получаем

I(Y, X ) = H ( X ) + H ( Y ) - H ( X , Y).

Умножая первое и второе слагаемое правой части равен-

т

ства соответственно на единицы вида l = v P (lJjixi) ~

п

7 - 1

 

= 2 P(x'Jyj). 11 расписывая энтропии через вероятнос-

/=1

ти соответствующих событий, получаем

 

 

 

п

т

У])1о? р (*і) -

 

а д

 

- 2 S

п

 

2= 1 / = 1

 

 

 

 

/2

 

(/у) log Р(*„ Уу) =

— у

^ P (A 7,yy)l0gP (y7) + V

 

/=1

у=1

 

 

2=1

 

 

 

 

22

2/2

 

Уі)

 

 

=

2

2 р ^*’

^ log

( 1.20>

 

P(Xi)Piyj)

 

*

 

 

2=1 7=1

 

 

 

Перечислим основные свойства количества информа­

ции I(X, Y).

 

 

 

 

1. І(Х,

Y ) = I ( Y X),

т. е.

количество информации,,

содержащееся в случайном объекте Y о случайном объ­ екте X, равно количеству информации, содержащемуся а

случайном объекте X о случайном объекте Y.

 

Свойство

1

сразу же следует из (.1.20), если учесть*

ЧТО Р(Хі, Уі)

= Р ( У р

Хі).

 

 

2. І(Х, г)

 

0, причем знак равенства имеет

место*

когда объекты X и' Y независимы.

 

Положительность І(Х, Y)

следует из свойства

9 эн­

тропии. Когда объекты X и Y статистически независи­

мы, по теореме

умножения

вероятностей Р(хі9

yj) =

= P(xt) P(ijj)

и под

знаком

логарифмов в (1.20) во

всех слагаемых будет стоять единица, поэтому І(Х,

Y) =

=0.

3.1 (X, Х ) = Н ( Х ), т. е. энтропия может быть истол­ кована как информация, содержащаяся в объектах от­ носительно самих себя. Из этого также непосредственно вытекает, что энтропия есть максимальное количество информации, которое можно получить об объекте:

27

Ф


Задана 1. Студент может сдать

зачет по теории'ин­

формации с вероятностью

а, не проработав весь мате­

риал

курса,

и с вероятностью ß,

проработав

весь мате­

риал

курса;

или не сдать

зачет

с

вероятностью

не

проработав весь материал,

и с вероятностью

В,

прорабо­

тав весь материал курса

(а-(-р +

7 - ( - 8 = 1 ) .

Опреде­

лить среднее количество информации, которое может по­

лучить

преподаватель о подготовленности

студента по

результатам сдачи зачета.

 

Р е ш е н и

е. Обозначим через X случайное число сту­

дентов

с определенной сдачей зачета, а через Y — слу­

чайное

число

студентов с определенной

подготовлен­

ностью. Пусть Х\— случайное число студентов, сдавших зачет, Хо— не сдавших зачет; у \— случайное число подго­ товленных студентов; уч— не подготовленных студентов.

По условию задачи известны следующие вероятности:

Р(х1, Уі) а> Р(Х1 , Уі) — ß, Р(х2, уо) — ч,

Р{х2, У ,) = в.

( 1.21)

Для определения искомого количества информации по формуле (1.20) необходимо найти соответствующие безусловные^вероятности. Их можно найти из формулы пол­ ной вероятности:

2

2

Подставляя в (1.22) соответствующие совместные веро­ ятности из (1.21), получаем:

_ Р(хі) — Р{хі* Уі) + Р(хі, Уъ) = а + ß;

Я(дг2) = Р{хъ Уі) -f- Р(х2, І/г) — S

(1.23)

Р(Уі) = Р(хи Уі) + Р(х2) Уі) = ß + 8;

РІУг) = Р(хи Уг) +

Р(хг, уг) =

« +

•(.

Наконец, подставим (1.23)

и (1:21) в

(Л.20):

1{Х, Y) =

P(xl1 y j l o g

Р(хц Уі)

I

 

Р{*і)Р(Уі)

 

+ р іхь Уі)І0g

+ р(х2,

Уі) log

Р(ха, Уі) . ■,

 

 

 

Р(х2)Р(Уі)

4


+ Ж*».

У*) log

ß

p £ ? py{f j- * ? log (aH~ P)(P ~h ö)

 

 

 

тт “h

+ ° ,0& (а + ß)(« +

-f) +

° l0g (5 + Tf)(P + 6) + Т l0g (5 +'()(* + -()

Задача 2.

По

линии связи с помехами передается од-

ио из двух сообщений Х\ или х2 с вероятностями соответ­

ственно р и (1—

На

приемном конце канала сиг­

нал Х\ обозначается

через у\, а х2 через

t/2-

Заданы

ус­

ловные вероятности правильного приема

Р ( у \/ хі )=

Д и

Р(у2ІХо)= 8.

Определить

количество

 

информации

I(Y} X) в общем случае и в случае, когда: а)

А = 8 = 0,5,

б) Д = ( 1 — 8). Объяснить

полученный результат

для

пунктов а) и

б).

 

 

 

 

 

Р е ш е н и е .

По теореме умножения вероятностей:

Р{хи Уі) = Я *і)Ж Уі/* і)

Р(хг, у г) = р{х2) Р(у2/Х2) =рЬ;

Р(хи у2) = Р(Х,) Р(уг Хх) =-• р{ 1 — Д);

Ң х л, у,) = Р(х2) РІУі/Хг) = р ( \ — Ь).

Подставив в формулу полной вероятности

P(yj) = і Р(ХІ. yj)

/= 1

соответствующие вероятности P(xh yj), найдем вероят­ ности сообщений y j :

Р{Уі) == Р(хъ Уі) + Pix* У,) = р.Д + р(1 — В);

Р(Уі) = Р(Хі, уг) + Р(Х2, Уг) =р( 1д) + р ь.

Наконец, среднее количество информации, содержащееся: в у о х:

ц у , Х ) ^ 2 2 р ^ ^ ^ Ш г -

1=1j —I

 

 

= Р Д log —-— â --------- h р (1 — A) log ■=—(1- ~ —

— 8)

 

/> 6 + /> (1 — Д)

1 - 8

+ / ? B I o g ^ —■

+ / ? ( l - 8 ) l o g

p A + A O — 8)

'

8 -f- /?(1 — Д)

Подставляя сюда A = 8 =0,5

и учитывая, ч т о /? + р = 1 ,

получаем I(Y, Х ) = 0.

 

 

 

 

291