Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 74

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

12-канальная аппаратура связи . . . . . .

150 000

Телевидение........................................................

' 8 000 000

Радиолокация ....................................................

10 000 000

Не всякая линия связи может обеспечить требуемый частотный диапазон вы­

бранного средства передачи информации, что видно из следующей таблицы, в которой полоса частот дана в кгц:

Междугородная проводная линия связи

5

Кабель

150

ВЧ ........................................................

коаксиальный ....................................

4000

Радиорелейная л и н и я ................................

500 000

Линия оптической связи ........................

400 000 000 000

Гидроакустический канал связи стоит несколько обособлено от перечисленных выше каналов, так как передача информации по нему связана не столько с привыч­ ной передачей электрических сигналов или электромагнитных волн, сколько с пере­ дачей упругих колебаний водной среды.

Особенностью гидроакустического канала является неоднородность среды, об­ разующей линию связи. Присутствие в морской воде солей обусловливает существова­ ние в ней свободных и связанных ионов, число которых изменяется при распростра­ нения акустической волны под влиянием сжатия и разрежения, вследствие чего она теряет часть энергии. На свойство воды как звукопроводящей среды существенно влияет степень ее нагретости и солености. Поэтому в различных слоях моря условия распространения акустической волны не одинаковы. Кроме того, при распростране­ нии-звука в воде происходит отражение волн от поверхности и дна моря. Отраженные волны искажают информационные посылки, а также вызывают реверберацию (послезвучание).

Перечисленные факторы обусловливают специфические требования" к помехо­ устойчивости и надежности кодов, передаваемых по гидроакустическому каналу.

Выводы: 1. Информация передается от объекта к адресату при помощи совокупности технических средств, образующих систему пере­ дачи информации. При этом канал связи относится к средствам пере­ дачи информации, а линия связи представляет собой среду, в которой распространяются сигналы.

2.В зависимости от линии связи каналы связи бывают проводные, радио, оптические и гидроакустические.

3.Чем шире полоса частот канала связи, тем большее количество сообщений может быть по нему передано одновременно.

4.С точки зрения возможности одновременной передачи максималь­ ного количества сообщений наиболее перспективным является оптичес­

кий канал связи.

Т ема 3

КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОР­

МАЦИИ.

 

ЕДИНИЦЫ КОЛИЧЕСТВА

 

ИНФОРМАЦИИ

Из основной и частных задач теории информации и кодирования вытекают следующие технические проблемы: изыскание способов пе­ редачи информации при как можно меньших временных и материаль­

14


ных затратах; повышение достоверности передачи, т. е. изыскание средств защиты систем передачи информации от влияния внешних физических факторов (помех, затуханий в линии связи, аппаратурных отказов и т. д.).

Практика показала, что при повышении помехоустойчивости и надежности уменьшается скорость передачи сообщений, а аппаратура становится сложнее и дороже. Как будет видно из дальнейшего из­ ложения, существует принципиальная возможность запроектировать устройство со сколь угодно малой вероятностью ошибки. Но во что это выльется на практике, можно оценить, лишь предварительно озна­ комившись с некоторыми понятиями и методами, позволяющими про­ изводить оценку эффективности систем связи. Для этого, прежде всего, необходимо уметь измерять количество и скорость передачи информации по каналам связи.

При передаче информации по каналам связи данное частное со­ общение выбирают из определенного количества возможных сообще­ ний. При этом длина этого сообщения зависит от выбранного способа передачи информации. Например, известную задачу о передаче места нахождения фигуры на шахматной доске можно решить одним из двух способов: закодировать каждую клетку и передать ее код или передать номера вертикали и горизонтали. В первом случае необходимо иметь код, передающий 64 знака (в двоичной системе он будет состоять из шести элементов), а во втором случае — код, передающий всего восемь знаков (в двоичной системе он будет состоять из трех элементов), но для передачи места нахождения фигуры потребуется два сообщения. Количество информации, переданное тем и другим способом, будет одинаково.

Количество информации определяется не количеством ситуаций (хотя, безусловно, зависит от него), а устранением неизвестности о передаваемом факте.

Коль скоро при передаче сообщений речь идет о выборе одного из данной группы, то, очевидно, что простейшим является выбор между двумя взаимоисключающими друг друга сообщениями, априорно равновероятными, для адресата. Другими словами, простейший вы­ бор состоит в решении дилеммы «Да — нет», результат решения кото­ рой может быть передан двумя качественными признаками: положи­ тельным и отрицательным импульсами, двумя частотными посылками, импульсом и паузой — в общем случае сигналами 0 и 1. Количество информации, переданное в этом простейшем случае, принято считать единицей количества информации. Так как единица количества ин­ формации представляет собой выбор из двух равновероятных событий, то это двоичная единица, или бит 1.

При решении таких задач, как: будет ли четной сумма цифр взятого в трамвае билета, выйдет ли из метро первым мужчина или

1 От английских слов binary didgit — двоичная единица.

15


женщина, выпадет ли при бросании монеты орел или решка,--количест­ во полученной информации будет равно одной двоичной единице, потому что в каждой из рассмотренных задач мы имеем дело с выбором из двух равновероятных событий. При решении задачи, прийдет ли завтра Ива­ нов на лекцию или нет, информация в 1 бит может быть получена только в том случае, если до этого Иванов систематически пропускал ровно 50% лекций. Если же этот студент систематически посещал все лекции, то в сообщении, что он и завтра придет на лекцию, количество информации не будет равно одному биту.

Как же оценить количество информации? Что для этого нужно знать? Прежде всего, очевидно, количество информации должно удов­ летворять условию аддитивности: при передаче сообщений одним и тем же методом, одной и той же аппаратурой, по одному и тому же кана­ лу связи количество информации тем больше, чем большее количество символов мы передаем. Действительно, чем больше слов в телеграмме, тем естественнее ожидать от нее большего количества информации; чем больше количество строк в телевизионной развертке, тем выше качество изображения; чем больше частных значений исходной функ­ ции будет передано, тем точнее она может быть воспроизведена. Не следует при этом путать термины количество и ценность информации. С точки зрения теории информации в телеграмме «Бабушка здорова. Целую, твой Федя» информации может быть больше, чем в телеграмме «На Марсе есть жизнь», так как в первой сообщение передано большим количеством символов, а степень их неопределенности до передачи со­ общения могла быть одинакова. Но теория информации не занимается определением ценности информации. Количество информации ее ин­ тересует лишь с точки зрения возможности передачи данных сообще­

ний

оптимальным образом.

 

 

Перейдем к количественной оценке информации. Число сообще­

ний

N, которое можно получить, комбинируя т символов алфавита

по п элементов в сообщении,

(3)

 

N = mn.

Например, комбинируя два символа, можно передать восемь сообщений при п = 3, шестнадцать — при п = 4, тридцать два — при ге = 5 и т. д. Как видим, число сообщений N, а вместе с ним и количество пе­ редаваемой информации находятся в экспоненциальной зависимости от количества элементов в сообщении. Поэтому N нельзя непосред­ ственно использовать как меру количества информации.

В 1929 г. американский ученый Р. Хартли предложил в качестве

меры количества информации принять логарифм числа

возможных

последовательностей символов:

 

/ = log N = log тп = п log т.

(4)

Такое представление меры количества информации отвечает тре­ бованию аддитивности, отражает экспоненциальный характер зависи­

.16


мости количества возможных кодовых комбинаций от количества сим­ волов в исходном алфавите, согласуется с основным психофизиологи­ ческим законом Вебера — Фехтнера

S= K lo g £

ипочти совпадает с классической формулой Больцмана для энтропии

в статической

термодинамической системе

 

 

 

 

Н т k log со,

 

где S — восприятие; К — неко­

 

 

торая константа, зависящая от

 

 

характера

проводимого опыта;

 

 

Е — возбуждение; Нт— термо­

 

 

динамическая

энтропия;

k

 

 

константа; w — вероятность дан­

 

 

ного состояния

системы.

не

 

 

Подобные

совпадения

 

 

случайны.

Они

объясняются

 

 

общностью природы этих явле­

 

 

ний; не зря во всех

рассмотрен­

Рис. 8.

К иллюстрации соответствия дли­

ных случаях наблюдается лога- •

ны кода

числу равновероятных выборов.

рифмич'еская зависимость.

Ввиду того что выбранная единица количества информации 1 бит есть двоичная единица, то представляется оправданным количество ин­ формации определять при помощи двоичного логарифма числа возмож­ ных последовательностей символов / = log2 N (если бы на практике наи­ более часто встречалось десять равновероятных выборов, то за единицу количества информации удобнее было бы выбрать десятичную единицу дит, а основанием логарифма в выражении (4) взять1 10).

Например, количество информации на одну букву алфавита, со­ стоящего из восьми букв, I = log2 8 — 3 бит!символ, т. е. мера снятой неопределенности при выборе одной буквы из данного алфавита равна трем двоичным единицам. Что это означает физически? Достаточно сделать три раза выбор «Да» или «Нет» (0 или 1), чтобы выбрать лю­ бой символ данного алфавита.

Вэтом легко убедиться, выразив символы алфавита и их аналоги

вдвоичном коде и произведя выбор по принципу, иллюстрированному рис. 8. Как видим, первые ветви соответствуют первому выбору меж­ ду 0 и 1, причем все коды, у которых первый символ 1, остаются сле­

ва, а те коды, у которых первый символ 0,— справа. Затем, в каждой

1 Из свойства логарифмов известно, что log* a Ioga М := logf, М. Это позволяет

записать М 2!°g2Af = JQ ]0g

откуда log2 М = lgM

= 3,32 lg М. Если при

 

1§ 2

 

вычислении информации удобно пользоваться натуральными логарифмами, то едини­ цей количества информации будет одна натуральная единица (1 нат). Натуральная единица связана с двоичной единицей следующим соотношением: 1 нат/символ = = 1,443 бит!символ.

17


из групп производят аналогичный выбор, причем слева остаются ко­ ды, у которых второй символ 1, а справа — коды, у которых второй символ 0. После третьего выбора будет однозначно определена любая буква кода, состоящего из восьми символов. Если продолжить это кодовое дерево, то легко убедиться, что передача любого символа 16-значного кода требует четыре выбора, 32-значного — пять и т. д.

Если число передаваемых символов алфавита не является одним из чисел степенного ряда 2", то количество информации не равно целой степени 2 и вычисляется как логарифм данного числа с основа­ нием 2. При этом следует помнить, что все вышесказанное справедливо для независимых равновероятных событий.

Действительно, предположим, имеется алфавит из т букв, которые лежат в урне. Возможность вытащить любую букву априори равнове­ роятна и равна р — 11т. При этом

/ = Jog т = bg i - = — log р,

(5)

г

 

т. е. количество информации, несомое каждым равновероятным сигна­ лом, равно минус логарифму вероятности отдельного сигнала. Если выбранные буквы возвращать в урну, то их вероятности будут оставать­ ся равными, но если не возвращать в урну выбранных букв, то вероятность вытащить нужную букву будет расти по мере уменьшения

букв в урне.

I

Предположим теперь,

что для составления сообщения имеется п

знаков, обладающих т качественными признаками. Априорная ве­ роятность появления в сообщении знака с t-м признаком pt = 1 im. Если среди п знаков имеется п{ знаков с t'-м признаком, то частота по­

явления

знака с t-м признаком равна n jn .

Если обозначить через

щ , п2, nt

и пт числа знаков соответственно с

первым,- вторым, t-м

и т-м качествами, то общее число элементов сообщения

т

п — «1 + н2 "Ь ■■ • + n i + • • • + п т 2 n i- i=l

Так как вероятность появления в сообщении символа с t-м при­

знаком равна pt, двух символов с t-м признаком — pf, то pi — ве­ роятность появления в сообщении п символов с i-м признаком. Веро­ ятность совместного появления определенного количества знаков с

вероятностями pi1, рр, ..., рп^ , ..., /?"">, взятых из алфавита т, согласно теореме о совмещении независимых событий определяется как произведение вероятностей вида pnJ :

т

 

р = П -pit.

(6)

i

 

Если посредством арабских цифр 0, 1,2, ..., 9 =

10) передают­

ся цифровые сообщения, например сводки о продаже зерна государст­

18