ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 24.10.2024
Просмотров: 54
Скачиваний: 0
ров, когда после получения информации у нас остается еще некоторая неопределенность. Вот два из них.
1. Пусть известно, что напряжение на клеммах не торого источника может изменяться в пределах 180— 230 вольт. Поэтому на вопрос, каково напряжение в дан ный момент времени с точностью до одного вольта, мож но высказать 51 предположение: 180, ..., 230 вольт. Пусть опыт заключается в измерении напряжения с точностью ,±'5 вольт. Произвели опыт. Напряжение оказалось рав ным 220 вольт. Значит, на самом деле истинное значение напряжения находится где-то между 215—225 вольтами.
Тогда заключаем, что после такого опыта на |
ннтересую- |
||||||
|
щий нас вопрос можно высказать |
||||||
Шим |
уже |
11 предположений: 217, ..., |
|||||
223 вольта. Таким образом, пос |
|||||||
|
|||||||
_______ _____ |
ле |
получения информации хотя |
|||||
|
|
|
|
|
|
||
Линия |
и |
остается некоторая |
неопреде |
||||
связи |
ленность, но эта неопределен |
||||||
Рис. 2 |
ность |
становится |
меньшей, |
чем |
|||
до опыта. |
|
|
|
||||
|
|
|
|
||||
За счет чего мы уменьшим неопределенность об ис |
|||||||
тинном значении |
напряжения источника? |
Очевидно, |
за |
с,чет того, что в результате опыта мы приобрели некото рое количество информаций, численно равное разности между количеством неопределенности до и после опыта. Вычислим его в предположении, что все значения напря
жений равновероятны. |
Тогда |
энтропия до опыта Н { = |
||||||
= log 51 = 5,672 (бит), |
а |
после |
опыта |
Я 2 = |
log Ы = |
|||
=3,459 (бит), и-количество |
информаций |
об |
истинном |
|||||
значении напряжения (с точностью до 1 вольта) |
от тако |
|||||||
го опыта |
/ = |
Н\—# 2= 2 ,2 |
(бит). |
Очевидно, |
повышая |
|||
точность измерения, мы увеличим |
количество |
получае |
||||||
мой • информации. |
|
|
|
|
|
|
||
2. |
Пусть |
имеется |
некоторая |
линия связи, в которо |
действуют шумы, искажающие передаваемые по ней сиг-’ налы (рис. 2). По линии связи передаются сообщения, составленные по некоторому закону из п различных сиг налов хі . Сигналы, смешавшись с шумом, поступают на выход линии связи. Обозначим принимаемые сигналы буквой y j ( j = \ , 2, ..., m ). После приема сигнала у г мы не
можем достоверно сказать, какому из переданных сигна лов х і он соответствует, так как случайный шум может
из любого сигнала хі создать подобный ему сигнал у г.
24
В этом случае для принятия правильного решения необ ходимо использовать вероятности P(xijyj).
Если, к примеру,, они оказались такими, что любой сигнал хі (кроме.хг) со сколь угодно малой вероят ностью (раз в столетие) может превратиться в уг , то, приняв этот сигнал, мы с как угодно близкой к единице вероятностью можем утверждать, что был передан х п так как
п |
|
2 Р(Хі/Уг) ^ Р(хг/Уг) = 1. |
( 1. 18) |
Если бы дело обстояло так со всеми передаваемыми сиг налами х і (і= \ , 2, ..., п), мы могли бы считать, что в ка нале связи вообще отсутствуют шумы, и соотношение бы ло бы справедливо для всех сигналов л>*
Иначе говоря, после опыта (после приема какого-либо сигнала y j ) у нас нет никакой неопределенности в соот ветствии принятого у] переданному хі , и количество*ин формации,содержащееся в yj о хі, численно равно неоп ределенности принять в данный момент какой-либо сиг нал X і, т. е. энтропии ансамбля сигналов
1(Y, X) = Н(Х).
Однако наибольший интерес представляет другой крайний случай, когда искажения сигналов в линии свя зи таковы, что любой из сигналов хі может с равной ве роятностью перейти в любой из сигналов yj. Это соответ ствует случаю, когда сигналы yj и хі статистически не зависимы (см. задачу 2 §.2), т. е.
Тогда, наблюдая у\лмы не получаем никакой информации о х і . Что же необходимо предпринять при таком разру шающем действии шумов на передаваемую информацию? Имеется единственный выход— подобрать такое разли чие (вид модуляции) в передаваемых сигналах хі , чтобы вероятности искажений были как можно ближе к (1.18).
Подсчитаем количество информации, имеющееся (в среднем) в сигнале yj о сигнале хі при произвольной ста тистике искажений p(xi/yj).
25
Среднее количество неопределенности, которым мы обладали до опыта, равнялось Н(Х). Представим теперь, что мы примяли какой-то сигнал yj (к примеру, tjn) и оцениваем, какова неопределенность (после опыта) соот ветствия его некоторому переданному хі (к примеру, х\). Эта неопределенность равна
— log P(xi/yj) = Н{х,-:;У]).
Как видим, неопределенность этого соответствия яв ляется случайной величиной, значения которой при каж дом заданном у j наступают с вероятностями P(xi'yj). Поэтому среднее значение количества неопределенности
соответствия данного yj |
(У2) любому из хі |
|
ЩХ/'У;) |
п |
Р(хі!у j) log P{XilУj). |
= - V |
||
|
І“ 1 |
|
Величина H(X/i/j) |
также случайна. Вероятности ее зна |
чений равны Р( уj). Тогда среднее значение H(X/yj) оп ределит среднее количество неопределенности соответст
вия любого yj |
любому из Л'I. Обозначим |
это среднее |
||||
H(XIY). |
|
|
т |
|
|
|
Щ Х /Y) = |
|
|
|
|||
V H{Xiyj) P(yj) = |
|
|||||
|
п |
in |
/= 1 |
|
|
|
|
Р[Х‘' |
yß |
1о§ p (x'!yß- |
|
||
= |
— У) |
2 |
|
|||
|
<•= 1 /= I |
|
|
|
|
|
Другими словами, H(X/Y) |
есть |
средняя |
неопределен |
|||
ность в передаче того или иного хі, если |
известно, что |
|||||
принят тот или иной у р |
или, кратко, средняя неопреде |
ленность ансамбля X после опыта.
Таким образом, мы установили, что неопределенность передачи некоторого сигнала X до опыта Н(Х), а после опыта H(X/Y). Поэтому количество информации, имею
щееся в Y о X: |
. |
|
I(Y, X) = |
Н(Х) — H(XiY). |
' (1.19) |
Эта мера количества информации получена нами на при мере передачи сообщений по каналу связи. Совершенно аналогичные рассуждения могут быть применены к слу чайным объектам произвольного вида и приведут нас к той же мере.
26
На основании свойств энтропии 4 и 6
M(Xt Y) = Н (Y) + Н (X/Y).
Подставляя этр выражение в (1.19), получаем
I(Y, X ) = H ( X ) + H ( Y ) - H ( X , Y).
Умножая первое и второе слагаемое правой части равен-
т
ства соответственно на единицы вида l = v P (lJjixi) ~
п |
7 - 1 |
|
= 2 P(x'Jyj). 11 расписывая энтропии через вероятнос-
/=1
ти соответствующих событий, получаем
|
|
|
п |
т |
У])1о? р (*і) - |
|
|
а д |
|
- 2 S |
|||
п |
/и |
|
2= 1 / = 1 |
|
|
|
|
|
/2 |
|
(/у) log Р(*„ Уу) = |
||
— у |
^ P (A 7,yy)l0gP (y7) + V |
|
||||
/=1 |
у=1 |
|
|
2=1 |
|
|
|
|
22 |
2/2 |
|
Уі) |
|
|
= |
2 |
2 р ^*’ |
^ log |
( 1.20> |
|
|
P(Xi)Piyj) |
|||||
|
* |
|||||
|
|
2=1 7=1 |
|
|
|
|
Перечислим основные свойства количества информа |
||||||
ции I(X, Y). |
|
|
|
|
||
1. І(Х, |
Y ) = I ( Y X), |
т. е. |
количество информации,, |
содержащееся в случайном объекте Y о случайном объ екте X, равно количеству информации, содержащемуся а
случайном объекте X о случайном объекте Y. |
|
||||
Свойство |
1 |
сразу же следует из (.1.20), если учесть* |
|||
ЧТО Р(Хі, Уі) |
= Р ( У р |
Хі). |
|
|
|
2. І(Х, г) |
|
0, причем знак равенства имеет |
место* |
||
когда объекты X и' Y независимы. |
|
||||
Положительность І(Х, Y) |
следует из свойства |
9 эн |
|||
тропии. Когда объекты X и Y статистически независи |
|||||
мы, по теореме |
умножения |
вероятностей Р(хі9 |
yj) = |
||
= P(xt) P(ijj) |
и под |
знаком |
логарифмов в (1.20) во |
||
всех слагаемых будет стоять единица, поэтому І(Х, |
Y) = |
=0.
3.1 (X, Х ) = Н ( Х ), т. е. энтропия может быть истол кована как информация, содержащаяся в объектах от носительно самих себя. Из этого также непосредственно вытекает, что энтропия есть максимальное количество информации, которое можно получить об объекте:
27
Ф
Задана 1. Студент может сдать |
зачет по теории'ин |
|||||||
формации с вероятностью |
а, не проработав весь мате |
|||||||
риал |
курса, |
и с вероятностью ß, |
проработав |
весь мате |
||||
риал |
курса; |
или не сдать |
зачет |
с |
вероятностью |
не |
||
проработав весь материал, |
и с вероятностью |
В, |
прорабо |
|||||
тав весь материал курса |
(а-(-р + |
7 - ( - 8 = 1 ) . |
Опреде |
лить среднее количество информации, которое может по
лучить |
преподаватель о подготовленности |
студента по |
|
результатам сдачи зачета. |
|
||
Р е ш е н и |
е. Обозначим через X случайное число сту |
||
дентов |
с определенной сдачей зачета, а через Y — слу |
||
чайное |
число |
студентов с определенной |
подготовлен |
ностью. Пусть Х\— случайное число студентов, сдавших зачет, Хо— не сдавших зачет; у \— случайное число подго товленных студентов; уч— не подготовленных студентов.
По условию задачи известны следующие вероятности:
Р(х1, Уі) а> Р(Х1 , Уі) — ß, Р(х2, уо) — ч,
Р{х2, У ,) = в. |
( 1.21) |
Для определения искомого количества информации по формуле (1.20) необходимо найти соответствующие безусловные^вероятности. Их можно найти из формулы пол ной вероятности:
2 |
2 |
Подставляя в (1.22) соответствующие совместные веро ятности из (1.21), получаем:
_ Р(хі) — Р{хі* Уі) + Р(хі, Уъ) = а + ß;
Я(дг2) = Р{хъ Уі) -f- Р(х2, І/г) — S |
(1.23) |
||
Р(Уі) = Р(хи Уі) + Р(х2) Уі) = ß + 8; |
|||
РІУг) = Р(хи Уг) + |
Р(хг, уг) = |
« + |
•(. |
Наконец, подставим (1.23) |
и (1:21) в |
(Л.20): |
1{Х, Y) = |
P(xl1 y j l o g |
Р(хц Уі) |
I |
|
Р{*і)Р(Уі) |
|
|
+ р іхь Уі)І0g |
+ р(х2, |
Уі) log |
Р(ха, Уі) . ■, |
|
|
|
Р(х2)Р(Уі) |
4
+ Ж*». |
У*) log |
ß |
|
p £ ? py{f j- * ? log (aH~ P)(P ~h ö) |
|||
|
|
|
тт “h |
+ ° ,0& (а + ß)(« + |
-f) + |
° l0g (5 + Tf)(P + 6) + Т l0g (5 +'()(* + -() |
|
Задача 2. |
По |
линии связи с помехами передается од- |
ио из двух сообщений Х\ или х2 с вероятностями соответ
ственно р и (1— |
На |
приемном конце канала сиг |
||||
нал Х\ обозначается |
через у\, а х2 через |
t/2- |
Заданы |
ус |
||
ловные вероятности правильного приема |
Р ( у \/ хі )= |
Д и |
||||
Р(у2ІХо)= 8. |
Определить |
количество |
|
информации |
||
I(Y} X) в общем случае и в случае, когда: а) |
А = 8 = 0,5, |
|||||
б) Д = ( 1 — 8). Объяснить |
полученный результат |
для |
||||
пунктов а) и |
б). |
|
|
|
|
|
Р е ш е н и е . |
По теореме умножения вероятностей: |
Р{хи Уі) = Я *і)Ж Уі/* і)
Р(хг, у г) = р{х2) Р(у2/Х2) =рЬ;
Р(хи у2) = Р(Х,) Р(уг Хх) =-• р{ 1 — Д);
Ң х л, у,) = Р(х2) РІУі/Хг) = р ( \ — Ь).
Подставив в формулу полной вероятности
P(yj) = і Р(ХІ. yj)
/= 1
соответствующие вероятности P(xh yj), найдем вероят ности сообщений y j :
Р{Уі) == Р(хъ Уі) + Pix* У,) = р.Д + р(1 — В);
Р(Уі) = Р(Хі, уг) + Р(Х2, Уг) =р( 1— д) + р ь.
Наконец, среднее количество информации, содержащееся: в у о х:
ц у , Х ) ^ 2 2 р ^ ^ ^ Ш г - |
||
■1=1j —I |
|
|
= Р Д log —-— â --------- h р (1 — A) log ■=—(1- ~ — |
||
— 8) |
|
/> 6 + /> (1 — Д) |
1 - 8 |
+ / ? B I o g ^ —■ |
|
+ / ? ( l - 8 ) l o g |
||
p A + A O — 8) |
' |
8 -f- /?(1 — Д) |
Подставляя сюда A = 8 =0,5 |
и учитывая, ч т о /? + р = 1 , |
|
получаем I(Y, Х ) = 0. |
|
|
|
|
291 |
-а