Файл: Толстоусов, Г. Н. Прикладная теория информации учеб. пособие.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 30.10.2024
Просмотров: 90
Скачиваний: 0
втся с разной частотой, мера Хартли является непригодной.Напри мер,контролируемые системы при правильном режиме эксплуатации и контроле должны чаще быть исправными, чем неисправными. Парамет ры движения самолета должны чаще находиться вблизи расчетных значений, а большие отклонения хотя и могут иметь место, но бу дут наблюдаться реже и т .д . Подобные примеры могут быть приве дены для большинства информационных систем. Но все состояния источника равноправны с точки зрения частоты их появления.
Частота появления различных состояний источника информации характеризуется законом распределения вероятностей. Поэтому в отличии от Р.Хартли, который в качостве признака источника ин формации рассматривал число его возможных состояний, К. Шѳннои ввел для определения дискретного источника информации вероятно
сти |
его состояний. |
|
|
|
|
|
X |
Пусть |
иыоѳтся статический дискретный источник информации |
||||
, определяемый табл. 3 .1 . |
В ней указывается л |
возможных |
||||
состояний |
источника х |
и вероятности этих состояний |
рс * |
|||
|
|
Таблица |
3.1 |
Рассматривается |
один ис- |
|
|
X , |
|
••• |
------ |
точник, который находится в ка- |
|
|
|
рп |
ком-то одном состоянии. Какую |
|||
Pi |
Л |
Рх |
••• |
же роль здесь играют |
вѳроятно- |
|
|
|
сти - характеристики |
частоты |
|||
|
|
|
|
|
||
|
|
|
|
|
появления состояний в массовой |
серии опытов? Под источником в теории информации понимается фи зическая система из некоторой большой партии систем с одинаковы ми законами распределения вероятностей состояний. Каждая из этих систем находится в каком-то одном состоянии и не меняет
его. Вероятность |
примерно есть число систем, находящихся в |
|
состоянии |
, |
деленное на число всех систем. Более точно в |
терминах теории вероятности это положение формулируется следую щим образом. Вероятность того, что отношение числа систем,нахо
дящихся в состоянии |
, к числу всех систем мало |
отличается |
от вероятности р' |
, стремится к единице с ростом |
числа систем |
в партии. |
|
|
Для характеристики статистического источника информации К.Шенноном предложена мера, аналогичная мере Р.Хартли и наз ванная им энтропией. Эта характеристика может быть получена, например, следующим путем.
9
Среди различных длинных блоков из N сообщений источника информации согласно теории вероятности большая часть будет та
ких, где сообщение х , будет встречаться A/f раз, сообщение Хг - раза и т .д . Причем
и т .д .
Общее число различных блоков такого вида равно
/ , .. М.....
L /Ц /Ц /...Л /п / '
Согласно Р.Хартли информационной характеристикой блока,ко торую К.Шеннон называет энтропией Н^ , является логарифм чи сла различных блоков. Поэтому
Используя формулу Стирлинга |
|
Ш ! |
1), |
имеем
HN~ к[ы (іпЫ -і)-£(епЫ і - <)].
Так как
Л . - Р
получаем
HN — N Lpcfojp. .
Это характеристика блока из N сообщений, а для одного сообще ния, входящего в блок,
Н=- £ рс tyPc ■
Найденное выражение справедливо не только в рассмотренном комбинаторном смысле. К.Шеннон получил это выражение при самых общих предположениях, к рассмотрению которых мы и перейдем.
До получения сообщения источник информации обладает некото рой неопределенностью. Известно, какие могут быть состояния у
10
источника, известны вероятности их появления и не известно,какое состояние имеет место в действительности.
Аксиомы, предложенные К.Шенноном, позволяют найти соотноше ние для вычисления количества неопределенности.
Первая аксиома. "Мера неопределенности есть непрерывная функция вероятностей состояний источника информации".
Для иллюстрации этой аксиомы можно привести следующие рас суждения. Неопределенность источника, заданного табл. 3 .2 ,будет больше, чем неопределенность источника, заданного табл. 3 .3 .
Таблица 3.2 Таблица 3.3
X, |
Я-Л |
Уі |
У, |
У* |
Pi 0.5 |
|
_ J L |
0.999 |
0.001 |
Выбирая для второго источника |
состояние |
у, , |
мы почти все |
|
гда будем правы. |
Почти все источники Y находятся |
в этом состо |
янии. Неопределенность состояний мала. Для первого источника не определенность больше. Нам надо выбрать одно из двух равноверо ятных состояний. Таким образом, неопределенность зависит от ве роятностей состояний. С другой стороны, если, например, в табл. 3.2 изменить вероятности на малую величину, то очевидно, что неопределенность изменится. Однако нет оснований предполагать, что неопределенность изменится существенно. Поэтому в аксиоме указано, что неопределенность есть непрерывная функция вероят ностей.
Заметим, что неопределенность не зависит по аксиоме от фи зической природы состояний, от их конкретных значений. Эти ха - рактѳристики систем остаются вне поля зрения аппарата теории ин формации, изучаемого в данном курсе. ^
Вторая аксиома. "Для источников с равновероятными состоя ниями мера неопределенности увеличивается с ростом числа состоя ний". Действительно, для источника с двумя равновероятными со стояниями возможности выбора меньше, чем для источника с тремя равновероятными состояниями.
Третья аксиома. "При раскрытии неопределенности имеется свобода выбора". Процесс раскрытия неопределенности может прохо дить различным образом. Рассмотрим следующий пример. Курсовой
II
угол полета самолета может лежать в пределах + 5°. Информация
о курсе выдается гироскопом с интервалом 1°. Тогда самолет пред ставляет собой источник информации с II состояниями. Неопреде ленность зависит от вероятностей этих состояний и может быть раскрыта (устранена) после получения сообщения от источника ин формации - гироскопа. Однако возможен другой способ раскрытия неопределенности. Пусть кроме гироскопа на борту имеется директорный указатель курса. Предположим, что при положении самолета в пределах + 2° он выдает сигнал о нормальном полете. При поло жении в пределах + 3° * + 5° поступает сигнал об отклонении влево. При положении в пределах - 3° + - 5° поступает сигнал об отклонениях вправо. С помощью директорного указателя и гироско па можно неопределенность раскрыть следующим образом. На первом этапе пилот получает информацию от директорного указателя, а на втором этапе он уточняет её по информации гироскопа.
Неопределенность, раскрываемая на первом этапе, равна не определенности источника с тремя возможными состояниями: "нор ма", "влево", "вправо"-и определяется вероятностями этих состо яний. На втором этапе раскрытия неопределенности может встре титься три различных случая. Первый случай, когда после сигнала "влево" может поступить три сигнала гироскопа: + 5°; + 4°; + 3° и раскрывается неопределенность источника с тремя состояниями. Неопределенность в этом случае определяется вероятностями ука занных состояний. Второй случай будет после сигнала "норма".Тѳперь возможные сигналы гиооскопа лежат в пределах + 2 4 - - 2°. Третий случай будет после сигнала "вправо".
Таким образом, при раскрытии неопределенности на втором этапе мы в общем случае получаем разные значения неопределенно сти, так как число возможных сообщений и их вероятности могут быть различными. Поэтому в качестве меры неопределенности, рас крываемой на втором этапе,следует принимать среднестатистичес кое значение неопределенности для разных случаез, т .е . матема тическое ожидание. Как вычисляется математическое ожидание не определенности на втором этапе, будет показано в следующем па раграфе.
Мы рассмотрели два возможных способа раскрытия неопреде ленности: первый, когда с помощью гироскопа сразу указывается состояние источника, и второй, когда сначала с помощью дирек
12
торного указателя определяется группа, к которой принадлежи состояние источника, а затем с помощью гироскопа указывается состояние. Оба способа схематично показаны на рис. 3,1;
Рис. 3.1
Оба способа точно указывают состояние одного и того же ис точника, поэтому в третьей аксиоме и утверждается, что величина раскрытой неопределенности в обоих случаях одинакова.
Три аксиомы К.Шеннона являются только одним из методов по строения математического аппарата теории информации. Существует еще несколько методов определения количества информации, но все они приводят прсктичѳски к одинаковым результатам,и нами рассма триваться не будут,
§ 4. Эн т р о п и я дискретного источника информации
Рассмотренные в предыдущем параграфе трп аксиомы позволяют получить математическое выражение для меры неопределенности дискретного источника информации. К.Шеннон меру неопределенности называет энтропией; в дальнейшем и мы будем пользоваться этим термином.
Предварительно найдем выражение для энтропии источника с
равновероятными состояниями. |
, |
|
Пусть имеется источник информации^ S '* "равновероятными |
||
состояниями. Вероятность каждого |
состояния равна |
. Энтропию |
такого источника, как функцию вероятностей состояний
13
для краткости обозначим в вида
H=H(sm). |
(4. О |
Будем раскрывать неопределенность по этапам. На гервом |
|
этапе все состояния разобьем на S |
одинаковых групп. Каждая |
группа объединяет |
s m~f равновероятных |
состояний, следовательно, |
|
группы'будут равновероятны и вероятность их равна |
. На вто |
||
ром этапе каждая |
группа разобьется на |
5 одинаковых |
групп |
(рис. 4 .1 ). |
|
|
|
>&т
Таких групп будет S , и все они равновероятны, так как в каждую входят Sm'~z равновероятных состояний. 11а третьем эта
пе каждая группа разбивается на |
s |
групп, |
а всего |
групп |
будет |
|
S 3 |
и т .д . Очевидно, что после |
т. этапов |
групп |
будет |
Sm , |
|
т .ѳ . |
в каждую группу входит одно |
состояние |
источника. |
|
||
|
При раскрытии неопределенности |
на первом этапе имеем S |
равновероятных групп. Величина этой неопределенности в соответ ствии с первой аксиомой есть некоторая функция
S
которую для краткости обозначим как
Ht=H(s)
При раскрытии неопределенности на втором этапе мы имеем S вариантов, так как на первом этапе выбирается одна из 5
групп. Но все эти варианты равноценны, так как в каждом иэ них на втором этапе надо выбрать одну иэ S равновероятных групп, поэтому величина неопределенности, раскрытой па втором этапе,
На третьем этапе может быть s г вариантов, но в каждом раскрывается неопределенность
M9 = H(s).
Так как для полного раскрытия неопределенности источника необ
ходимо т этапов, то |
неопределенность источника |
|
|
H=/nH(s) . |
( ы ) |
Согласно третьей |
аксиоме неопределенность источника |
не за |
висит от способа её раскрытия. Поэтому величина неопределеннос
ти (4 .1 ), полученной |
при непосредственном раскрытии, равна вели |
||||||
чине |
(4 .2 ), |
полученная при раскрытии по этапам: |
|||||
|
|
|
|
|
H(s m)=rnH(s) . |
(4.ъ) |
|
|
Рассмотрим два источника с равновероятными состояниями. |
||||||
Пусть |
количества |
состояний |
одного источника |
s m и другого Ьп |
|||
(где |
S |
, |
т , |
t |
, гъ |
- целые числа, и |
ѣ - велико),нахо |
дятся в |
следующем соотношении: |
|
|||||
|
|
|
|
|
|
|
(4.4) |
15
В соответствии оо второй аксиомой, используя обозначение (4 .1 ), запишем
Н(з'"'М H(tn)<H(sm*1. |
(4.5) |
Согласно (4.3) последнее выражение примет вид
mH( s) éп Н ) Н ( $ ) .
Разделив все части неравенства на величину nH(s)
т „ H it) у т |
. / |
п, ~~ H(S) гъ |
п • |
Прологарифмируем выражение (4 .4 ). Тогда
(4.6)
, получим
(4J)
(48)
Разделим все части этого неравенства |
на величину п toflS |
, ПОЛУ' |
|||||
чим |
|
|
|
|
|
|
|
|
|
т s foot |
, т |
4 |
|
|
(4.9) |
|
|
іь ~~ eSgs |
л |
п |
• |
|
|
|
|
|
|
||||
Сравним выражения (4.7) |
|
и |
(4 .8 ). Видно, |
что две ве |
|||
Hit) |
ШЬ) |
равны между собой |
с точностью до малой величины |
||||
ш |
г |
|
|
|
|
|
|
п |
' |
|
|
|
|
|
|
|
|
!н (і) |
бю(і) / |
/ |
|
|
|
|
|
/ H(s) |
eoa(seotf(s), |
a |
|
|
|
Отношение неизвестной |
нам функции Н |
для двух произволь |
ных значений её аргументов равно отношению логарифмов этих аргу ментов. Следовательно, функция пропорциональна логарифму аргу мента: __.___
H(s )=k £oqs.
Так как основание логарифмов может быть любое, коэффициент пропорциональности к можно опустить и записать выражение для энтропии источника информации с равновероятными состояниями в виде
16