Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 80

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ву, то в сводке одного колхоза, возможно, цифра 3 не будет содержать­ ся. Возможно также, что и в сводках 10 колхозов не встретится циф­ ра 3, но это уже маловероятно. Зато с уверенностью можно сказать, что в сводках 1000 колхозов цифра 3 будет встречаться наравне с другими цифрами, и вероятность ее появления будет близка к 1/т =

= 1/ 10.

Если рассмотреть ряд таких примеров, то нетрудно заметить, что всегда с увеличением числа сообщений вероятность появления г-го символа в сообщении будет расти, и щ /п-*- 1 /т = р{ при оо, что математически обосновано теоремой Бернулли и известно под названием закона больших чисел.

Таким образом, при больших п вполне допустимо следующее при­

ближение: — л: Р;,

 

 

откуда

п,-« пр^.

(7)

Подставив значение nt в формулу (6), получим

 

 

т

 

 

Р = П р"рк

(8)

 

i=i

 

Подставив теперь значение р в выражение (5), найдем оконча­

тельно

т

 

 

 

I = — log р = — log П p f i = — пр! log рх

 

 

t= l

 

np2\ogp2— ■■ ■pm\ogpm = — пУ , p£\ogPi.

(9)

 

i=i

 

Это соотношение было

получено Шенноном для определения среднего

количества информации в сообщении с произвольными вероятностями появления значений символов. При равновероятных символах, т. е.

при р£ = 11т,

формула Шеннона переходит в формулу Хартли:

 

т

гп

 

I

п J

Pi log pi = — « S

= n\ogm .

 

;=i

i=i

 

Выводы: 1. Информация имеет количественную оценку.

2. Зависимость между количеством информации и количеством комбинаций, составленных из данного алфавита,— логарифмическая.

3.Единица количества информации двоичная. Получается она при выборе одного из двух равновероятных символов и равна 1 бит.

4.Для случая неравновероятных, независимых, символов количе­

ство информации

т

1 = -~п S Pi\0gpt.

;=1

19



Задачи к теме 3

1. Определить:

log2 4б;

Ig45;

log2yT6; lg уОб;

Ioga

;

log, - Ц - ;

 

 

lg 5;

l g - j - ;

lg 12.

 

 

 

Преобразовать:

loga (XKZ);

loga

-xyz- ;

k loga X

k loga Y -f

k loga Z.

2.Как определить количество информации в сообщении, если известно макси­ мально возможное количество сообщений? Как определить количество информации

всообщении, если известно количество качественных признаков (алфавит) сообще­ ний и количество символов в каждом сообщении? Привести примеры.

3.Символы алфавита обладают двумя качественными признаками. Какое ко­ личество сообщений можно получить, комбинируя по три, четыре, пять, шесть эле­ ментов в сообщении?

4.Сколькими способами можно передать положение фигур на шахматной дос­ ке? Чему равно количество информации в каждом случае?

5.В алфавите три буквы: А, В я С. Составить максимальное количество со­ общений, комбинируя по три буквы в сообщении.

6.Какое количество информации приходится на букву алфавита, состоящего из 16 букв, 25, 32?

7.Чему равно количество информации в сообщении, переданном в двоичном коде пятизначной комбинацией? Двумя пятизначными комбинациями?

8.Чему равно количество информации при получении восьми сообщений че­ тырехзначного троичного кода?

9.Чему равно количество информации о выходе из строя одного из восьми стан­ ков, полученных в одно и то же время с'одного и того же завода?

ЭНТРОПИЯ. СВОЙСТВА ЭНТРОПИИ

Как уже было сказано, понятие информация связано со снятием неоп­ ределенности, которая существовала до получения сообщения. И чем большая неопределенность была до передачи сообщения, тем большее количество информации содержится в принятом сообщении.

Предположим, в урне находится 100 шаров: 99

черных и один

белый. Вынимаем шар, передаем сообщение, какого

цвета был шар,

в какой-то условный пункт приема, ложим этот шар

обратно в урну,

перемешиваем шары и повторяем процедуру. Вероятности получения сообщения о том, что вынут черный или белый шар, будут равны соот­

ветственно рх = 0,99 и р2 =

0,01. Количество переданной информации

при этом

 

I = — (Pi logs Pa +

р2log2 р2) = — (0,99 log2 0,99 +

+ 0,01 log2 0,01) = 0,0143 -f- 0,0664 = 0,0807 бит/символ.

Следовательно заранее предсказать, какой будет вынут шар, не пред­ ставляет особого труда, так как мы почти уверены в результате опы­

20


та. Количество полученной информации мало. Если мы заранее уве­ рены в ответе, то ответ несет нулевую информацию.

Если в примере с шарами в урне было бы 50 черных и 50 белых, то трудно было бы предсказать содержание сообщения. В этом случае неопределенность максимальна, так как вероятности появления чер­ ного и белого шаров равны друг другу: рг = рг = 0,5.

Количество полученной информации при этом

/ = — (Pi log2 Pi + р2 1оЙ2 Рг> = — (°-5 log2 0-5 + 0,5 log2 0,5) =

= 1 бит/символ.

Чем больше априорная неопределенность, тем большее количество информации получается при снятии ее. В этом смысле величина, определяющая степень неопределенности, является удобной мерой оцен­ ки количества информации при исследовании ее свойств.

В теории информации мерой неопределенности является энтро­ пия — удельное количество информации, приходящееся на один эле­ мент сообщения. Для сообщения из п элементов эта величина равна

 

т

т

 

 

н = ~

= —X Pi los Pi = S

Pi 1о§ 7 Г

0 !0)

и называется средней

энтропией

сообщения.

Величина log i

назы­

вается частной энтропией, характеризующей лишь г-е состояние. Как видим из выражения (10), сама энтропия Н есть среднее значение частных энтропий.

В случае одинаковой вероятности появления любого из т элемен­ тов сообщения

тт

Н = — £

Pi^ogpi = — 2 -^-tog-jr = logm.

(11)

(=i

i=]

 

При исследовании свойств энтропии наибольший интерес пред­ ставляет ее зависимость от числа т возможных признаков (качеств) и вероятности pt появления в сообщении элемента с t-м признаком.

Энтропия характеризует меру неопределенности совокупности

событий, составляющих полную группу (сумма вероятностей появления

т

отдельных событий должна быть равна единице т. е.

1; в про-

 

1= 1

т = i =

тивном случае теряет справедливость формула (10)1. Если

= 1, т. е. передается сообщение с одним t-м признаком и вероятность его появления р{ = 1, то

т

 

Н = £ p < l ° g - ^ = 1 l°g 1 = 0-

(12)

Это очевидно, так как заранее известно, что будет передано сообщение с t-м признаком и при его получении ничего нового мы не узнаем, т. е.

21


получим нулевую информацию. Если

сообщение заранее известно,

то энтропия минимальна и равна 0.

признака в ансамбле сообщений

Если вероятность появления t-ro

равна нулю, то слагаемое с этим признаком принимает вид неопреде­ ленности типа нуль на бесконечность. Действительно,

Pi log •— = 0 • со.

Раскроем эту неопределенность, используя правило Лопиталя1. Для этого прежде всего неопределенность вида 0 • оо приводим к виду

о о /о о :

 

 

Нш (р, log

Pt

 

 

 

 

 

 

 

 

pt-*о '

 

 

 

 

 

 

 

Обозначим — =

к (при р{

 

0 к

 

оо). Тогда можно записать

 

 

lim I -----р 1—

/

= lim

log fe

 

 

 

ррО \

 

L

 

к-*со

k

 

 

 

 

 

 

pi

 

 

 

 

 

 

Согласно правилу Лопиталя

 

 

 

 

 

 

 

- ^ Т ~ =

{~ТГ~) ’ но производная

(log k)' =

log е,

то есть

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нш log fe

 

± \o g e

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

ft-*со k

 

 

 

 

 

 

Известно, что если отдельные

слагаемые

стремятся к

нулю, то

к нулю стремится и сумма, т.

е.

окончательно можно записать

 

 

 

 

m

 

 

 

 

 

 

 

 

 

lim

£

Pi log - 1 - =

0.

 

, (13)

 

 

 

Pr*°

 

 

 

 

pl

 

 

 

Таким образом, найдены два крайних условия, при которых, эн­

тропия минимальна и равна 0.

 

 

 

 

,

 

Исследуем теперь

выражение

для энтропии на экстремум. Для

1 Правило

Лопиталя: если f (х)

=

—— —, причем функции ф {х) и ¥ (х) опреде-

лены в интервале, содержащем а,

 

 

¥

(д:)

 

 

производные

и имеют в этом интервале конечные

! ¥ ' (х) ф 0;

ф' (х)

Ф 0),

и если

 

 

 

= 0 и J™al

¥

(х) = 0 (неопределенность

0/0) или

ф (х)

~ оо и

¥

(х) =

оо (неопределенность оо/оо), то

/ (*) =

lim ф '( * )

 

 

 

 

 

 

 

 

 

 

 

*=* х-*а ^ \ х )

'

 

 

 

 

 

 

 

 

 

 

22