Файл: Толстоусов, Г. Н. Прикладная теория информации учеб. пособие.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 30.10.2024
Просмотров: 65
Скачиваний: 0
меру неопределенности. Наибольшей неопределенностью источник обладает при равновероятных состояниях. Тогда все состояния рав ноценны и наы необходимо выбирать одно состояние среди одинако вых. Здесь мы испытываем наибольшие затруднения и информация о действительном состоянии источника для нас наиболее ценна.
Единицы измерения энтропии зависят от основания логарифмов, выбранного при вычислении энтропии согласно соотношении (4 .18). Для двоичной системы счисления, когда основание логарифмов рав но 2, энтропия измеряется в битах. При использовании десятичных логарифмов энтропия измеряется в дитах; при натуральных - в нитах.
Зависимость энтропии источника |
|||
с двумя возможными состояниями от ве |
|||
роятности состояний показана на рис. |
|||
4 .3 . На рисунке обозначено |
рі » p |
, |
|
тогда $t=» I - р |
. Видно, что в |
||
качестве единицы энтропии, равной I |
|||
биту, можно принять энтропию источ |
|||
ника с двумя равновероятными состоя |
|||
ниями. |
|
|
|
Для численных расчетов |
удобно |
||
пользовгться таблицами функции |
|
||
t f p b - P t y z P |
. |
при |
|
водимой в литературе |
по теории ин |
формации [З] .
В заключение заметим, что выражение (4.18) для вычисления энтропии можно представить как математическое ожидание логариф ме вероятности состояний источника
|
Н(Х)= м[- &$Р(Х)] t |
(4.23) |
|
где Н(Х) - |
энтропия источника |
информации |
X ; |
М[ 3 - |
операция математического ожидания; |
||
P C X ) - |
вероятность любого |
случайного |
состояния источника, |
|
рассматриваемая как |
случайная |
величина. |
Действительно, состояния источника случайны. Вероятность
появления |
состояния |
равна |
. Если мы поставим в соот |
ветствие |
появлению состояния Хі |
появление величины - toflp. » |
22
то последняя тоже станет случайной и будет появляться с вероят ностью рс .
Понятие энтропии как математического ожидания будет исполь зовано в следующих параграфах.
§ 5. Энтропия объединения независимых источников
По линии связи одновременно могут передаваться сообщения нескольких источников информации. Поэтому с целью создания луч ших условий передачи целесообразно рассматривать эти источники не изолированно друг от друга, а совместно, как один сложный, комплексный источник, называемый объединением источников.
|
Рассмотрим вначале объединение, состоящее из двух дискрет |
|||||||
ных источников информации X |
и У . |
sc, , х г |
||||||
|
Пусть |
источник |
X |
имеет |
/г |
возможных состояний |
||
. . . |
Хп , |
а |
источник |
Y |
ийеет пг |
возможных состояний |
yt , |
|
. . . |
. |
По каналу |
связи передается сообщение о действительном |
состоянии обоих источников. Тогда сообщением могут быть все по
парные |
комбинации состояний источников: Xtyi ; Х,ул . . . |
Хп |
* т*е. всего имеем ГЪ*т разных сообщений. Под состо |
яниями объединения понимаются все комбинации состояний источни
ков, входящих в объединение. |
Чему равна |
вероятность |
одного |
из |
|||
состояний |
объединения |
X^ |
? Это есть |
вероятность произведе |
|||
ния, т .е . одновременного появления двух |
событий: X - Х с |
(ис |
|||||
точник X |
находится |
в состоянии |
Х0 ) |
и Y~*/y |
(источник |
||
Y находится в состоянии |
) . |
Эту |
вероятность обозначим |
||||
следующим образом: |
|
|
|
|
|
|
|
|
Рѵ = р [ х ~ х і ; у . ^ ] |
ш |
|
Объединение есть некоторый источник, у которого возможны т*гь состояний. Если известны все вероятности этих состоя
ний (5 .1 ), то |
энтропия объединения Н(Х Y) |
по определению энтро |
пии источника |
(Ф.І8) может быть записана следующим образом: |
|
|
H< x r h - ifc P v &>?Pv . |
t o ) |
Используя операцию математического ожидания, выражение (5.2) может быть записано в вида
25
И(ХГ)=м[-еодР(ХУ)], |
(Si) |
где P(XY) - вероятность состояния объединения, |
рассматривае |
мая как случайная величина.
Полученное выражение для энтропии объединения зависит от вероятности произведения состояний источников. Эта вероятность вычисляется различным образом для различных видов взаимосвязи
между источниками. |
|
Предположим, что источники X и У |
независимы. Для не |
зависимых источников вероятности состояний одного источника не зависят от того, в каком состоянии находится другой источник.
Пусть источник X |
характеризуется табл. 5 .1 , |
а источник У |
||||||
- табл. 5 .2 , |
где |
^ |
есть вероятность состояния ß |
|
||||
|
|
Таблица |
|
б .І |
, |
Таблица |
5 .2 |
|
Хі, |
Xi |
Xx • • • |
РЛ |
ь |
& • * • Ѵѣ |
|||
Pi |
Pt |
Ръ |
« • « |
J L L |
• » |
• |
||
- |
Вероятность произведения |
состояний для независимых |
источ |
|||||
ников равна |
произведению вероятностей этих состояний: |
|
||||||
|
|
|
ІѴ=АѴ |
|
|
(SM |
||
|
|
|
|
|
|
|||
|
|
P (X Y hP iX )P {Y ) . |
|
(SS) |
||||
|
Подставив |
(5.5) |
|
в (5 .S ), получим |
|
|
Н(ХykM j-fy[m )P(Y)]J=r{-tofi)(K )]+M [- & уР (у/
Используя выражение для энтропии дискретного источника в виде (4.23), имеем
//(ХУ)=н(хІ+н(г). (S6)
Полученный результат может быть обобщен для объединений, составленных из произвольного числи независимых источников:
24
н(х у zw... )=н(х)+н(у)+н(г)+h (w)+... |
ш) |
Энтропия объединения независимых источников равна сумме энтропий источников, входящих в объединение.
§ 6 . Энтропия объединения зависимых источников Условная энтропия
Рассмотрим объединение двух зависимых дискретных источни |
|
ков информации X |
и У , Источники называются зависимыми,ког |
да вероятности состояний одного источника зависят от того, в |
|
каком состоянии находится другой источник. |
|
Вычислим энтропию объединения зависимых источников. Веро |
|
ятность состояния |
объединения Р (Х У) в этом случае равна |
произведению вероятности первого источника на условную вероят
ность |
второго. Принимая, например, ъ качестве первого источник |
X |
, имеем |
|
|
Р(Х У)=Р(Х)Р( Y/X), |
|
|
|
(6.1) |
где Р(У/Х)~ |
условная вероятность источника |
У |
, |
вычисляемая |
||
|
|
при известных состояниях |
источника |
X . |
||
Подставив |
(6.1) в выранение для |
энтропии объединения |
||||
(5 .3 ), получим |
|
|
|
|
|
|
Первое слагаемое в правой части согласно |
(4.23) |
представля |
||||
ет собой энтропию первого источника: |
|
|
|
|
||
|
|
Н{Х)=м[- £о$Р(Х)]. |
|
|
(65) |
|
Рассмотрим второе слагаемое выражения (6 .2 ) . |
Условная ве |
|||||
роятность Р(У/Х)рассматривается здесь |
как случайная величина. |
|||||
Случайными |
являются состояния |
|
), |
для |
которых |
|
вычисляется |
вероятность и условия ( Xf ,X z ... |
x ^ , |
), при ко |
торых эти вероятности вычисляются. Каждое конкретное значение - появляется с вероятностью, равной вероятно -
сти произведения , т .е . одновременного появления как
25
Y- , так и X - X c . Поэтому математическое ожидание необходимо определить следующим образом:
|
|
|
м[-& уР(У/Х)/=-£1 Р¥ ео$р(у./хс) , |
|
|
(ел) |
|||||||||||
|
Для конкретных значений |
Х - х ^ |
и |
У~у# |
согласно |
(6.1) |
|||||||||||
имеем |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Подставляя |
(6 .5) |
в (6 .4 ), |
получим |
|
|
|
|
|
|
|||||||
|
м[-&уР(У/х)]=£рс[-1 Р^Ю & уРІЪ/Хі)]. |
|
|
(6-6) |
|||||||||||||
Выражение |
в квадратных |
скобках |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
H (Y/xl)=- Z p fa /x J Coypfa/xc) t |
|
|
(е.г) |
|||||||||||
согласно (4 .1 8 ),есть энтропия |
источника |
У . |
В |
это |
выражение |
||||||||||||
вместо |
априорных |
вероятностей |
источника |
У |
входят |
условные |
|||||||||||
вероятности P (y J |
, |
которые |
необходимо |
использовать,ког |
|||||||||||||
да |
нам |
известно, |
что источник |
X |
находится |
в |
состоянии |
х с . |
|||||||||
Поэтому энтропия |
Н (У /хс) |
называется |
частной |
условной |
энтропи |
||||||||||||
ей источника. Это мера неопределенности источника |
У |
, |
кото |
||||||||||||||
рая остается, когда нам известно, |
что |
зависимый |
от |
У |
источник |
||||||||||||
X |
находится |
в |
состоянии |
|
|
. |
Частная условная |
энтропия ис |
|||||||||
точника |
У |
ость |
величина, которая может изменяться |
в зависимо |
|||||||||||||
сти |
от |
состояния |
источника |
X |
|
. Вычислим среднее значение вели |
|||||||||||
чин Н(У/хс ) |
, |
которое обозначим чере > И(Y /X ) |
. Осредняя |
||||||||||||||
по |
всем |
состояниям источника |
X |
, |
получим |
|
|
|
|
|
|||||||
|
|
|
|
|
H(Y/X)=lpc Ы г М . |
|
|
|
|
(6.8) |
|||||||
Величина Н(У/Х) |
называется |
условной |
энтропией |
источника У . |
|||||||||||||
Используя |
(6 .6 ), |
(6.7) |
и (6 .8 ), |
имеем |
|
|
|
|
|
|
|
||||||
|
|
|
|
|
H (Y/X htl[-eoyP (Y/X )J |
|
|
|
|
(в-9) |
|||||||
|
Таким образом, неопределенность источника может измеряться |
||||||||||||||||
двумя видами энтропий: |
обычной |
Н(У) |
и |
условной Н(У/Х), |
26