ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 09.04.2024
Просмотров: 387
Скачиваний: 15
486 |
Г Л . »2. П Е РЕ Д А Ч А ИНФ О РМ А Ц И И ПО КАН АЛАМ С В ЯЗИ |
|
способностью С со скоростью Я |
неопределенность в приня |
том сигнале не может быть меньше чем Я — С бит/с. В этом состоит вторая основная теорема Шеннона.
Число практически возможных реализаций переданного сигна ла при данном принятом сигнале в этом случае на основании результатов предыдущего параграфа равно 2тнѵ, причем все эти реализации практически одинаково вероятны и вероятность каж
дой из них |
равна 2 —т н у . Следовательно, вероятность выбора дей |
ствительно |
переданной реализации из 2 т н у практически возмож |
ных при данном принятом сигнале равна 2~тнѵ, а вероятность ошибки равна 1—2—тнѵ. Отсюда, принимая во внимание (12.4.6), получаем для вероятности ошибки неравенство
рош = 1 _ 2 “ ТЯи> 1 _ 2 ' г(Н- С). |
(12.4.7) |
Из этого неравенства следует, что вероятность ошибки стремится к единице при Т -ѵоо, если Я > С. Этот результат показывает, что передача информации со скоростью, превышающей пропускную способность канала, практически невозможна.
Перейдем к выводу формулы для расчета пропускной способ ности канала. Предположим, что канал имеет полосу пропуска ния Q, т. е. что он передает только гармонические колебания всех частот от 0 до Q Гц. Обозначим через Р среднюю мощность сигнала,
несущего |
информацию, а через N — среднюю |
мощность шумов |
в канале. |
Несущий информацию сигнал X (t) |
и шум V (t) будем |
считать независимыми эргодическими стационарными случайными функциями времени с тождественно равными нулю математически ми ожиданиями и дисперсиями D жи D v соответственно. Величины D x и D Bвследствие эргодичности сигнала и шума пропорциональ ны их средним мощностям Р и N.
Из теории вероятностей известно, что количество информации о случайной величине X, содержащееся в случайной величине У, равно количеству информации о величине У, содержащемуся в ве
личине X: |
І х [У] = |
Я [У] - Н х [У]. |
(12.4.8) |
||
І у [X] = |
|||||
Если шум V суммируется в канале с сигналом X, то |
|
||||
Y |
(t) = X |
(t) |
+ |
V (t) |
(12.4.9) |
|
Н х [У] |
= |
Я |
[VI |
(12.4.10) |
Таким образом, средняя условная энтропия принимаемого сигнала У равна энтропии шума и, следовательно, не зависит от способа кодирования информации.
На основании (12.4.8), (12.4.9) и (12.4.10) формулу (12.4.2) для
пропускной способности канала можно переписать |
в виде |
С = шах {Я IX + V]} — Я [V]. |
(12.4.11) |
§ 12.4, П Е РЕ Д А Ч А И Н Ф О РМ А Ц И И ПО К А Н А Л У С ШУМАМИ |
487 |
Так как шум обычно можно считать нормально распределенной случайной функцией времени, то энтропию его значения при дан ном значении t можно вычислить по формуле (см. [54], § 7.3)
Hi [V] = log2/ 2 ^ c. |
(12.4.12) |
При этом значения шума, разделенные промежутком времени меж ду двумя последовательно передаваемыми значениями сигнала, можно считать независимыми. Тогда, если в секунду по каналу передается s значений сигнала, то энтропия шума в единицу вре мени будет равна
H [ V ] = s log2/ 2 neDv. |
(12.4.13) |
Для вычисления max { Н [X + F]} вспомним, что из всех слу чайных величин, имеющих одну и ту же дисперсию Dx + Dv, максимальной энтропией обладают нормально распределенные случайные величины. Поэтому наибольшее количество информации в каждом значении сигнала можно получить, если пользоваться для передачи информации нормально распределенным случайным сигналом. В этом сигнале наибольшая возможная энтропия на один знак сигнала равна
max {Hi [X + F]} = log2 ]f2ne (Dx + D v). |
(12.4.14) |
А так как совместная энтропия нескольких случайных величин не может быть больше суммы их энтропий и равна сумме их энтро пий только когда они независимы, то для получения максималь ной энтропии сигнала X + V на единицу времени необходимо пользоваться сигналом X с независимыми значениями. В этом случае при передаче в единицу времени s значений сигнала будем иметь
max {Н [X -f F]} = s log2 У 2ле (D x + Dv). |
(12.4.15) |
Из (12.4.11), (12.4.13) и (12.4.15), следует, что при передаче s зна чений сигнала в единицу времени максимальное количество инфор мации, которое может быть передано в единицу времени по каналу, равно
Cs = max{tf [X + F ] } - tf [ F ] = 4 lo g 2( l + g 2 ) . (12.4.16)
Остается теперь определить наибольшее возможное число зна чений сигнала s, которое может быть передано по каналу в единицу времени. Так как канал имеет полосу пропускания Q, то по нему может передаваться только сигнал, имеющий спектр, ограничен ный полосой частот £2. На основании теоремы Котельникова такой сигнал полностью определяется своими значениями, отделенными промежутком времени Тп = 1/2Q. Поэтому максимальное число значений сигнала, которое может быть передано в единицу време ни, равно s = 1 /Та = 2Q. Следовательно, пропускная способность
Г л а в а 13
ЗАДАЧИ СТАТИСТИЧЕСКОЙ ТЕОРИИ ОПТИМАЛЬНЫХ СИСТЕМ
§ 13.1. Постановка задач теории оптимальных систем
В главах 7 и И были изложены методы исследования точности автоматических систем, имеющих заданные характеристики. Одна ко на практике часто возникает другая задача: спроектировать систему, т. е. определить ее характеристики, таким образом, чтобы она обладала наибольшей возможной точностью при данных усло виях. Систему, обладающую наибольшей возможной точностью с какой-нибудь определенной точки зрения среди всех систем дан ного класса, обычно называют оптимальной. Раздел теории авто матического управления, развивающий методы непосредственного определения оптимальных систем, называется теорией оптималь ных систем. Величина, характеризующая качество системы, мак симальное или минимальное значение которой достигается для оптимальной системы, называется критерием оптимальности.
Оптимальную систему можно найти подбором с помощью мето дов, изложенных в главах 7 и 11. Для этого надо рассчитать раз личные варианты системы одним из изложенных в главах 7 и И методов, сравнить их и выбрать вариант, для которого принятый критерий имеет наименьшее или наибольшее, в зависимости от ха рактера задачи, значение. Однако этот путь сложен и требует боль шого количества вычислений, которые часто бывают очень трудо емкими.
Задачу непосредственного определения оптимальной системы можно ставить двумя способами. В первой постановке задается структура системы и требуется найти оптимальные значения ее числовых параметров, при которых ее точность будет наилучшей с точки зрения выбранного критерия. В такой постановке задача определения оптимальной системы сводится к обычной задаче оты скания экстремума функции одной или нескольких переменных. Выразив с помощью методов главы 7 или главы 11 принятый кри терий качества системы через ее неизвестные параметры, мы мо жем найти такие значения этих параметров, при которых критерий качества имеет наибольшее или наименьшее значение в зависимо сти от его смысла. При этом в зависимости от того, как выражается критерий качества через параметры системы, можно применить для нахождения экстремума известные аналитические или числен