ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 24.10.2024
Просмотров: 65
Скачиваний: 0
Задача 2. Источник вырабатывает три различных символа ,ѵ'ь Х2, х$ с соответственными вероятностями 0,5,
0,3 и 0,2. Заданы возможные длительности символов ^ =
— 10 с, т2= 4 с и т3 = 2 с. Подобрать такое соответствие
заданных длительностей символам источника, чтобы по ток информации был максимальным.
Р е ш е н и е. Энтропия источника
Н{Х) = — V P(Xi)\og Р ( хі) = 1,49 (бит). /=і
Чтобы поток информации
ѵ 1 |
<т> |
<~> |
был максимален, необходимо |
минимизировать среднюю |
|
длительность символа |
• |
|
< ' > = 2 /= 1
Для этого, очевидно, нужно наиболее часто встречающим ся символам сопоставить наименьшую длительность:
<т > min ==2j4),5-|-4-0,3+10-0,2 = 4,2 с. При этом поток
информации # тах = 0 Л354 бит/с.
Г Л А В А 3
ДИСКРЕТНЫЕ КАНАЛЫ БЕЗ ШУМОВ
§ 1. Модель информационной системы передачи дискретных сообщений в отсутствие шумов
Основной функцией информационных систем является хранение информации и ее перенос в пространстве. Систе му передачи информации между двумя заданными пунк тами называют одноканальной информационной систе мой связи, или просто к а н а л о м с в я з и .
Простейшая блок-схема дискретного канала связи без шумов приведена на рис. 3.
Рис. 3
Выходным сообщением источника может являться пе чатный текст, графическое изображение, звуковая волна, показания прибора и т. п. Назначение кодирующего уст ройства (кодер) состоит в том, чтобы представить выход ное сообщение источника в некоторой стандартной форме, например в виде последовательности двоичных сигналов. -Однако основная задача кодирования заключается в том, чтобы стандартное представление было наиболее эконом ным, т. е. требоъало в среднем наименьшего возможного числа двоичных сигналов, а также чтобы в случае отсут ствия шумов на приемной стороне по полученным кодиро ванным сигналам можно было однозначно восстановить вид переданных сообщений, т. е. чтобы W—X. Последнее накладывает некоторые ограничения на допустимый вид кодированных сигналов (см. § 3 этой главы).
Кодированные сигналы, пройдя линию связи, поступа ют на вход декодирующего устройства, которое преобра зует их в форму, наиболее удобную для данного прием ника.
61
§ 2. Пропускная способность канала связи
Введем определение пропускной способности канала
связи |
в предположении, что сообщения |
источника и |
шумы, |
действующие в линии связи, носят эргодический |
|
характер. |
сообщений, |
|
Обозначив через Х тпоследовательность |
||
создаваемых источником за время Т, а через |
W r соответ |
ствующую ей последовательность примятых сообщений,
определим |
количество информации I(Wr, Х т), содержа» |
щееся в |
последовательности сообщений \Ѵтпа выходе |
канала о последовательности X уліа его выходе. I(Wr X T) зависит от вероятностных характеристик источника сооб щений и характеристик шумов, действующих в линигГсвязи, ‘метода кодирования сообщений, а также от промежут ка времени Т.
Предел
(3.1)
определяет среднее количество информации, получаемое на выходе канала за единицу времени, и называется с к о р о с т ь ю п е р е д а ч и и и ф о р м а ц и и.
Максимальную скорость |
передачи информации назо |
|
вем п р о п у с к н о й с п о с о б н о с т ь ю |
канала связи С; |
|
C= max I(\V, X) (бпт/с). |
(3.2) |
|
При вычислении максимума |
скорости |
передачи могут |
представиться следующие случаи:
1)канал связи определен полностью: заданы способы кодирования и декодирования сообщений, длительности передаваемых сигналов, полоса канала связи и вероятно стные характеристики помех; тогда максимальная ско рость передачи информации отыскивается по статистиче ским характеристикам источника сообщений, т. е. разыс кивают такое распределение вероятностей по сообщениям X, при котором скорость передачи информации наиболь шая;
2)статистические показатели источника сообщений за даны; в этом случае способы модуляции, кодирования и декодирования выбираются так, чтобы скорость передачи информации была максимальной;
62
3) канал связи полностью не определен — имеется* возможность изменять те или иные его параметры: дли тельности символов, способ кодирования и т. и.; в этом случае параметры канала, которые не заданы, выбирают из условия получения возможно большей скорости пере дачи информации, а максимум в (3.2) снова отыскивают
по статистическим |
характеристикам |
источника |
сообще- |
|
• ний. |
|
|
связи определяется |
|
Пропускная способность линии |
||||
так: |
|
|
|
|
Сс = max 1(Z, Y) |
-(бит/e), |
(3.3) |
||
где |
|
Yp) |
|
|
% |
|
|
||
|
|
|
|
|
/'Z , |
Y) - lim |
f |
|
|
|
7*-> oo |
|
|
Так как весь информационный канал связи не может про пускать информацию со скоростью большей, чем его ‘часть, то всегда Сс^ С .
При отсутствии шумов wT=x.n zT = у т. На основании
свойств количества информации |
|
||
Х т) = І(Х.П х т) = Н(X.,)- |
|
||
I[ZT, Y T) = I \ X r |
YT) = H ( Y T). |
|
|
Подставив последние выражения в (3.2) и (3.3), |
получим |
||
С = |
|
Н( ХГ) |
(3.4) |
max lim ---- 7— ; |
|||
|
Т - > С О |
1 |
|
С = |
max lim |
ЩѴр) |
(3.5) |
----~— . |
|||
|
Т-> оо |
1 |
|
Обозначим через N(T) число~всех возможных последова тельностей сообщений, вырабатываемых источником, дли тельностью Т. Тогда энтропия Н(ХГ) максимальна/если
все эти |
последовательности |
равновероятны, |
равна |
|||
log N(T), |
и выражения (3.4) и (3.5) |
можно переписать в |
||||
виде |
|
|
logyvm. |
|
|
|
|
С = |
Нт |
|
|
||
|
|
Т-г оо |
т |
|
|
|
|
Сс = |
lim |
log^ |
(r), |
- |
(3.6) |
|
|
7'-оо |
J |
|
ь |
|
где Nk(T) — число всех возможных кодированных после довательностей длительностью Т.
63
Задача 1. Определить пропускную способность линии связи, использующей для передачи сообщений код с осно ванием т (т. е. с т различными символами). Длитель ность всех символов кода одинакова и равна т. Ограни чения на допустимый вид кодовых последовательностей символов не накладываются.
Р е ш е н и е. Рассмотрим последовательность из М ко довых символов. Длительность ее Г= Мт. Количество различных последовательностей, которое можно составить из т символов по М штук в каждой,
Nk(T) = m ■VI
Подставляя (*) в (3.5), получаем
а |
lim |
log т:.'И |
1 |
М т |
= — log от. |
||
|
М- 00 |
|
Если используется двоичный код, то т —2 и Сс=Д((5ит/с).
Задача 2. В условиях предыдущей задачи-определить пропускную способность линии связи, если на допустимый вид кодовых последовательностей накладываются неко
торые ограничения. |
сигналов YТ |
Р е ш е н и е. Энтропия кодированных |
|
длительностью Т = М і |
|
H(YT) = MH(Y), |
(3.7) |
где H(Y) — энтропия кодовых символов, вычисленная с учетом наложенных ограничений. Подставляя (3.7) в (3.6), получаем
• С |
с |
max lim |
МЩУ) |
|
M-hсо |
Ml |
max H{Y)
(3.8)
где максимум отыскивается с учетом наложенных ограни чений.
Задача 3. В информационном канале используется код, при котором запрещается передача подряд двух одинаковых символов. Алфавит кода состоит из четырех различных символов. Вероятности передачи всех разре
шенных пар символов одинаковы. Длительности |
всех |
|
символов также одинаковы |
и равны і = 10“3с. Опреде |
|
лить скорость передачи информации. |
( і = |
|
Р е ш е н и е . Обозначим |
символы кода через ус |
= 1, 2, 3, 4). Число различных пар, которое можно соста-
64
%
вить из четырех различных символов, равно 42= 16. Че тыре из них (уі,Уі) запрещены. По условию,-вероятности разрешенных пар кодовых символов одинаковы. Поэтому
1/12, |
і =r/; |
ҢУп Уі) = |
i = j . |
о , |
Чтобы найти энтропию кодовых символов, необходимо воспользоваться формулой, учитывающей вероятностную связь между двумя символами кода:
ЩУ) = - і і |
У] ) 1ogP(y>i/yj). |
/=і /=і |
|
По формуле полной вероятности
• |
Р(Уі) = |
Т |
(^ = ь 2. 3, 4). |
|
|
j= 1 |
|
Из теоремы умножения вероятностей
Р (ѵ ,а д = |
|
1/3, і ФГ, |
|
= |
|
|
|
О , / = /.. |
При этом H(Y) = |
1,585 (бит) : Подставив это значение |
|
в (3.8)-, получим - |
|
|
ЩУ) |
1,585 |
= 1585 (бит/с). |
|
10‘ 3 |
|
|
|
Задача 4. Доказать, что в условиях предыдущей зада чи найденная скорость передачи является максимальной и равна пропускной способности линии связи.
Д о к а з а т е л ь с т в о . Внутренняя сумма энтропии
Щ У ) = - S P (y j)S p ( y tly j)1 o g Р ІУ і/y j)
j= 1 /»1
максимальна, когда условные вероятности Р(уіІУу) всех разрешенных переходов i=£j равны между собой.(см. свойства энтропии), т. е.
5 З а к . 2340. |
65 |