Файл: Бездудный, В. Г. Техника безопасности в шахтном строительстве.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 18.10.2024

Просмотров: 113

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

вероятностью

соответствовать

несколько

сигналов, то

всегда

М ’ > М и 2пТЩА1В) > 2пТШ), т.

е. пТН (А/В)

> пТН (А).

 

Вероятность р принять правильный сигнал равна отношению

благоприятного числа событий ко всему числу событий:

 

 

р =

J L . =

2 пТ1ИШ ~ И{-А 1 т

 

(75)

Так как

принятому

сигналу b/

соответствует

2пТН{Л/В)

высо­

ковероятностных последовательностей

отправленных

сигналов, то

средняя вероятность того, что, кроме одной точки веера (рис. 23),

соответствующей отправленному сообщению, все остальные 2пТ1,(А/в> сигналов являются ложными, или, другими словами, вероятность

безошибочного приема

 

 

 

 

р

2ъТ\Н{А)Н{А[В)]^

2 пТН{А/В)

(76)

где 1 — 2 пТщщА)~Н{А/вЯ — вероятность

ложного

приема.

 

Выражение (76) позволяет перейти непосредственно к доказатель­ ству основной теоремы Шеннона о кодировании в присутствии шумов.

Теорема 1. Если источник с энтропией Н (А) создает информацию на входе шумящего канала без памяти со скоростью R, меньшей про­ пускной способности С данного канала связи, то существует такой код, при котором вероятность ошибки на приемном конце сколь угодно мала.

Так как R <

С, то можно записать, что С — R = т),

или

 

 

 

 

R =

С — г),

 

 

 

 

где TJ — какое-то

положительное

число.

 

г), что позволяет

С другой стороны, С =

Н {А) Н (А/В) == R

записать

 

R - H ( A ) = — H(A!B)— т].

 

 

(77)

 

 

 

 

Если источником сообщения создается

2nRT сообщений, а может

быть создано 2nTHiA),

то для этого

случая

вероятность правильного

приема

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n t i R T

_

2пВН-ЩАП

 

 

(78)

 

 

^

2п Т Н ( А )

 

 

 

 

 

 

 

 

 

а выражение (76) примет вид

 

 

 

 

 

 

 

 

р = (1 _ 2 пТ^ - П (А ЛупТ ЩА/ В)

 

 

(79)

 

 

 

 

 

 

 

 

 

 

Подставив выражение (77) в формулу (79), получим

 

р _ ( 1 _2пП- И(А/Б)~'п]у пГЩА/в> = ( 1 __2rnTH<'AIB)~nT4f

пТН(А/В) (80)

Из

выражения

(80)

видно,

что

при

п Г ->

со

lim р = 1,

т. е. при

кодировании достаточно

 

 

 

 

пТ

длинными блоками, вероятность

106


безошибочного приема можно сколь угодно приблизить к единице, а вероятность ошибки — к нулю.

Вторая часть основной теоремы доказывается особо и в литературе фигурирует как вторая теорема Шеннона о кодировании в присутствии шумов. Доказательство этой теоремы приводим по Ф. П. Тарасен­ ко [32].

Теорема 2. Если Я ■< С, то при кодировании достаточно длинными блоками среди кодов, обеспечивающих сколь угодно малую вероятность ошибки, существует код, при котором скорость передачи информации

Rсколь угодно близка к скорости создания информации Я.

Вусловиях шумов скорость передачи информации

R = Н — Н {А!В),

(81)

где Я (AJB) — апостериорная энтропия переданного сигнала, харак­ теризующая минимальную избыточность на символ, необходимую на восстановление информационных потерь в канале связи, т. е. ту вели­ чину информации, которой не достает, чтобы передача велась со ско­ ростью С.

Доказав, что существует код, при котором Н (А/В) сколь угодно мала, мы докажем теорему.

Пусть вероятность ошибки при приеме сигнала равна р (е). Тогда количество информации на символ, необходимое для обнаружения

ошибки, может быть найдено из неравенства

 

Н (А/В) < Я (е), 1 — р (е)] + Я (k),

(82)

где Я (k) — количество информации, необходимое для

обнаружения

искаженного символа.

 

Если алфавит состоит из т символов,то количество

информации,

требующееся на обнаружение одного искаженного символа,

Я (k) < р (е) log — 1),

(83)

откуда

 

Я (Л /Б )< — p(e)logp(e> — {1 — p(e)log[l — р(е)]} + р (е) log — 1). (84)

Для сигнала любой длины выражение (84) записывается следующим образом:

Я * (Д /Б )< —-aloga — (1 — cs)log(l — a) -f-alog(Ar — 1), (85)

где Я* (А/В) — апостериорная энтропия переданных сигналов; а — вероятность ошибочного отождествления сигнала; N = тп — число сигналов; п — число символов в сигнале.

Очевидно, что формулу (85) можно записать в виде

Я* (А/В) < 1 + a log (Я — 1) < 1 + апС,

(86)

откуда количество недостающей информации на символ

Я (А/В) = Я*

•• < 4 - + ссС.

(87)

107


Так как (согласно основной теореме) а может быть сделано сколь угодно малым, то при кодировании достаточно длинными блоками (п оо) рассеяние информации в канале связи также можно сделать сколь угодно малым. При этом скорость передачи R будет сколь угодно близка к скорости создания информации Н.

Доказанные выше теоремы Шеннона не указывают на конкретный метод кодирования, при котором с бесконечно малой вероятностью ошибки скорость передачи информации могла бы быть сколь угодно близкой к пропускной способности. Этого метода не найдено по сей

день.

Такой

достоверности

существующие

методы

кодирования

не

 

 

 

обеспечивают и

при

скоростях,

значительно

 

 

 

меньших С. Сам Шеннон считает,

что попыт­

 

 

 

ка

осуществить

хорошее

приближение

к

 

 

 

идеальному кодированию по методу, приме­

 

 

 

ненному в

доказательстве \

вообще

говоря,

 

 

 

представляется непрактичной.

 

 

 

Рис. 24.

Модель

симмет­

 

Нет ничего

удивительного, что при пе­

ричного

бинарного кана­

редаче информации путем введения огромной

ла.

 

 

избыточности или бесконечным

повторением

 

 

 

сигналов может быть достигнута сколь угодно

малая ошибка даже при наличии помех.

Но скорость передачи инфор­

мации при этом будет стремиться к

нулю.

 

 

 

каналов

При вычислении

пропускной

способности реальных

связи действие помех учитывается вероятностями рп ложного приема. При этом, вероятность рп правильного приема pn = 1 — рл. Если по каналу связи передаются дискретные сообщения при помощи равнове­ роятных качественных признаков, соответствующих 0 и 1, то интен­ сивность помех характеризуется вероятностями перехода 0 в 1 и на­ оборот, т. е. соответствующими условными вероятностями.

Рассмотрим теперь выражение для пропускной способности сим­ метричного бинарного канала. При этом бинарным будем называть канал связи, в котором сообщения передаются при помощи двух ка­ чественных -признаков. Бинарный канал, в котором вероятности лож­ ных переходов равны друг другу и вероятность правильного приема одного сигнала равна вероятности правильного приема другого сигна­ ла, будем называть симметричным. Модель симметричного бинарного

канала представлена на рис. 24.

 

 

 

=

Так

как в симметричном

 

бинарном

канале

р (V0) = Р (°/i) =

рл и

рВ (1) = рВ (0) =

1 — рл, то

для

него

Н (В/А) =

=

,— Ip Jog2p*

+

(1 — рл) log2

0 — рл)1, а С, согласно формуле (73),

 

 

Сп

=

n [1 + рл log2

рл + (1 — рл) log2 (1 — рл)].

(88)

Из симметрии бинарного канала следует, что максимальная скорость передачи информации будет достигнута для источников,

Имеется в виду доказательство основной теоремы для канала с шумами.

1 P S


у которых вероятности передачи 1 и 0 равны. Тогда р (1) = р (0) =

=V2, а

Н(Л) = Н (В) = — (V2 log2 Vg + V2 log2 V2) = 1 бит/символ.

Именно эту единицу и видно в выражении (88), а остальная его часть — условная энтропия, которую мы отнимаем от энтропии источника (либо адресата). Если в выражении (88) значения рл достигают 0,5, то нарушается всякая корреляция между переданными и принятыми сигналами, а пропускная способность такого канала связи равна нулю. Как заметил Шеннон, в таком случае можно получать столь же «хоро­ шую» информацию, подбрасывая монету в точке приема, обходясь вообще без канала связи.

Перейдем теперь к выводу общего выражения для бинарного ка­ нала с шумами без памяти, под которым будем подразумевать канал связи со статистической независимостью искажений передаваемых символов.

Предположим, передаются сигналы Л (0) и Л (1), априорные вероятности которых рА (1) и рА (0) = 1 — рА (1), вероятности лож­ ных переходов р (%) и р (1/0), вероятности правильного приема р (1/1) = = 1 — р (%-) и р (°/0) = 1 — р (х/о). На приемном конце переданному сигналу Л (1) соответствует принятый сигнал В (1), а сигналу Л (0) — сигнал В (0). В этом случае, согласно правилам теории вероятностей, вероятности правильного приема сигнала:

 

pB (1) =

рЛ (1) [1 — р (%)] +

[1 — рЛ (1)] р (Vo);

 

рВ (0) =

[1 - рЛ (1)] [1 - р (Vo)] + рЛ (1) р (%).

Энтропия принятых сигналов

 

н (В) =

— 2

Pc log2 Pi =

1рВ (1) log2 pB (1) + pB (0) log2 pB (0)J.

 

i=\

 

 

 

 

Условная энтропия, согласно формуле (24),

 

Н (В!А)

= — 2

2 Р (а>) Р

logs Р (bjfat) =

 

 

 

i

i

 

= — S

p

S p № < )

( V a<) =

— рл (i)[p ov) iog2 p (Vi) +

t.i

+ P (°/i) log2 p (“/x)] — P^ (0) [p (°/o) log2 P (°/o) + p (1/„) log2 p (Vo)]•

Пропускную способность таких каналов связи удобно вычислять при помощи вспомогательных таблиц. Примером может служить табл. 18, составленная для случая, когда вероятности появления 0 и 1 равны. Для вычисления Сп достаточно соответствующие значения из табл. 18 подставить в выражение (73).

Рассмотрим конкретный пример расчета пропускной способности

канала связи,

когда задан процент искажения полезных сигналов

под действием

помех.

109