ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 05.05.2024
Просмотров: 42
Скачиваний: 0
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
2c(τ)dτ/ G0=Ec/G0 где Ес- энергия сигнала.
2. Теорема Шеннона
По каналу связи с полосой пропускания F, в котором действует сигнал с мощностью Pc и нормальный шум с дисперсией σ2 можно передавать информацию со скоростью сколько угодно близкой к пропускной способности канала С=Flog(1+Pc/ σ2) и при этом вероятность ошибки может быть сделана сколь угодно малой.
Производительность источника – это количесвто информации, производимой источником в единицу времени: H’=H/T (H - энтропия, T – длительность сообщения).
Скорость передачи информации – количество взаиной информации передаваемой по каналу связи в единицу времени: I’=lim(I(Z,U)/T).
Пропускная способность канала вязи – максимально возможная скорость передачи информации.
Доказательство:
Количество взаимной информации содержащейся в процессе z(t) о сигнала u(t):
I(Z,U)=h(z)-h(X) (h(z), h(X) – дифференциальные энтропии соответствующих процессов).
Дифференциальная энтропия – относительная информационная содержательность непрерывного процесса (h(z)=-∫W(z)log(Wz)dz). Т.к. шум нормальный и его дисперсия σ2=G0F, то: h(X)=0.5log(2πe σ2). Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом с дисперсией Рс. Тогда максимальное количество взаимной информации равно: I(Z,U)= 0.5log(2πe (σ2+Рс))- 0.5log(2πe σ2)= 0.5log(2πe(1+Рс/σ2). Т.к. процесс на выходе канала связи финитный по спектру, то полностью определяется по теореме Котельникова, т.о. в единицу времени следует передавать 2F отсчетов, тогда получаем: C=2F*I(Z,U).
Билет 22
1. ШПС
К некоторым системам связи предъявляется требование скрытности. Противник не должен обнаружить факт передачи. Сигнал нужно спрятать в шумах, чтобы обычный сигнал принять с хорошим качеством, он должен быть мощнее шумов, резко выделяться.
ШПС(шумоподобный сигнал) - сигналы с широким спектром, т.е. мощность передатчика распределяется по большой полосе частот и спектральная плотность такого сигнала мала. Сигнал малозаметен на фоне помех.
К таким сигналам относятся:
-Коды Баркера (3,5,7,11,13)
-М - последовательности (длина сотни импульсов)
Их называют псевдослучайные последовательности(ПСП). Их база B=2FT (гдеF-ширина спектра ППС;T-длительность ПСП)
Согласованные фильтры обычно используются для оптимального приема шумоподобных сигналов, аналоговый фильтр согласованный с ШПС содержит: линию задержки, фазовращатели (если + знак не меняется, если – знак меняется на противоположный), сумматор, фильтр согласованный с одиночным прямоугольным импульсом.
2. Энтропия
Количество информации, которое заключено в некотором сообщении с вероятностью появления p(i), равно: I=-log2p(i).Свойства количества информации:
1)чем меньше р, тем больше I.
2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.
3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.
4)количество информации величина неотрицательная.
Энтропия H - это среднее кол-во информации приходящееся на одно сообщение
Для дискретного источника независимых сообщений энтропия вычисляется по формуле:
H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).
Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны Hmax=logm
Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax
Наиболее часто используются двоичные системы связи m=2. Энтропия двоичного источника вычисляется по формуле:
H(m=2)=-p(1)*logp(1)-[1-p(1)]log[1-p(1)]
Энтропия двоичного источника максимальна если p(1)=p(0)=0.5
Чем больше энтропия, тем больше информации несет один символ и тем больше скорость передачи информации при заданной бодовой скорости - количество посылок в единицу времени
Основные способы увеличения энтропии:
1)наличие корреляционных связей между символами уменьшает энтропию.
Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.
Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим
2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"
Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.
3)Для дальнейшего увеличения энтропии увеличивают основание кода m.
Билет 23
1. Оптимальный приемник двоичных сигналов
Способность Системы связи препятствовать мешающему влиянию помех называется помехоустойчивостью. Максимально достижимая помехоустойчивость называется потенциальная помехоустойчивость, которой соответствует минимальная вероятность ошибки р (р=limNoш/N (где N –общее количество переданных символов, Nош- количество ошибок).
Система связи работает с такими вероятностями: р=10
-1−10-3 удовл.качество
р=10-4−10-6 хорошее качество (используют для передачи речи); р=10-7−10-9 отличное.
Приемник реализующий потенциальную помехоустойчивость, т.е. обеспечивающий минимальную вероятность ошибки, называется оптимальным приемником
Правило работы оптимального приемника, если передаваемый сигнал двоичный:
если р(1/z)>p(0/z) решение R=1
если р(1/z)
Пусть в линии связи действует единственная помеха (АБГШ), со спектральной плотность G0, тогда сравнение условной вероятностей эквивалентно следующему сравнению:
∫[z(t)-U1(t)]2dt <∫[z(t)-U0(t)]2dt R=1; ∫[z(t)-U1(t)]2dt >∫[z(t)-U0(t)]2dt R=0
Структурная схема идеального приемника Катальникова
Физическая сущность "0" и "1" зависит от вида модуляции.
1)Двоичная амплитудная модуляция(ДАМ)
U1(t)=UmCosw0t
U0(t)=0
2)Двоичная частотная модуляция(ДЧМ)
U1(t)=UmCosw1t
U0(t)=UmCosw0t
3)Двоичная фазовая модуляция(ДФМ)
U1(t)=UmSinw0t
U0(t)=-UmSinw0t
2. Преимущества и недостатки ИКМ
Преимущества ИКМ
1)Сигнал ИКМ цифровой. Цифровые микросхемы очень малы по размеру. Цифровые микросхемы обеспечивают требуемую стабильность(два логических уровня 0 и 1), их абсолютная величина не важна.
Цифровой сигнал имеет высокую степень унификации и стандартизации. Разные типы сообщений передаются одними и теми же цифровыми сигналами. Т.о. цифровая аппаратура более компактна и дешевая.
2)Сигнал ИКМ обладает свойством регенерации(восстановление частично пораженных помехой импульсов-сигналов)
если z(t)>V то на выходе 1
если z(t)
Без регенерации происходит накопление шумов при переприеме.
При регенерации складываются не шумы, а ошибки. Это позволяет на порядок увеличить дальность связи.
Недостатки ИКМ
1)Ширина спектра сигнала ИКМ значительно больше ширины спектра исходного аналогового сигнала. Ширина спектра сигнала ИКМ равна ширине спектра одиночного импульса.
Ширина спектра ИКМ в 2n раз больше ширины спектра исходного аналогового сигнала.(n-длина кодовой комбинации) (Т=1/2nFв – длительность одного импульса, Пикм=1/Т).
2)Операция квантования приводит к тому, что сигнал ИКМ поражается специфической помехой, которая называется "шум квантования". При квантовании истинный уровень заменяется ближайшим разрешенным.
Квантование эквивалентно наложению на сигнал ИКМ помехи («шум квантования», его мощность: σ2=Δ2/12=(Umax)2/(N-1), N – число уровней квантования, Δ - шаг).
Для уменьшения квантования нужно увеличивать число уровней квантования, но при этом увеличивается длина кодовой комбинации и расширяется спектр ИКМ, чтобы этого избежать используется неравномерное квантование (маленькие уровни квантуются с маленьким шагом квантования, а большие уровни с большим).
Билет 24
1. Теорема Шеннона
По каналу связи с полосой пропускания F, в котором действует сигнал с мощностью Pc и нормальный шум с дисперсией σ2 можно передавать информацию со скоростью сколько угодно близкой к пропускной способности канала С=Flog(1+Pc/ σ2) и при этом вероятность ошибки может быть сделана сколь угодно малой.
Производительность источника – это количесвто информации, производимой источником в единицу времени: H’=H/T (H - энтропия, T – длительность сообщения).
Скорость передачи информации – количество взаиной информации передаваемой по каналу связи в единицу времени: I’=lim(I(Z,U)/T).
Пропускная способность канала вязи – максимально возможная скорость передачи информации.
Доказательство:
Количество взаимной информации содержащейся в процессе z(t) о сигнала u(t):
I(Z,U)=h(z)-h(X) (h(z), h(X) – дифференциальные энтропии соответствующих процессов).
Дифференциальная энтропия – относительная информационная содержательность непрерывного процесса (h(z)=-∫W(z)log(Wz)dz). Т.к. шум нормальный и его дисперсия σ2=G0F, то: h(X)=0.5log(2πe σ2). Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом с дисперсией Рс. Тогда максимальное количество взаимной информации равно: I(Z,U)= 0.5log(2πe (σ2+Рс))- 0.5log(2πe σ2)= 0.5log(2πe(1+Рс/σ2). Т.к. процесс на выходе канала связи финитный по спектру, то полностью определяется по теореме Котельникова, т.о. в единицу времени следует передавать 2F отсчетов, тогда получаем: C=2F*I(Z,U).
2. Способы увеличения энтропии
Количество информации, которое заключено в некотором сообщении А с вероятностью появления p(А), равно: I=-log2p(А).
Свойства количества информации:
1)чем меньше р, тем больше I.
2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.
3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.
2. Теорема Шеннона
По каналу связи с полосой пропускания F, в котором действует сигнал с мощностью Pc и нормальный шум с дисперсией σ2 можно передавать информацию со скоростью сколько угодно близкой к пропускной способности канала С=Flog(1+Pc/ σ2) и при этом вероятность ошибки может быть сделана сколь угодно малой.
Производительность источника – это количесвто информации, производимой источником в единицу времени: H’=H/T (H - энтропия, T – длительность сообщения).
Скорость передачи информации – количество взаиной информации передаваемой по каналу связи в единицу времени: I’=lim(I(Z,U)/T).
Пропускная способность канала вязи – максимально возможная скорость передачи информации.
Доказательство:
Количество взаимной информации содержащейся в процессе z(t) о сигнала u(t):
I(Z,U)=h(z)-h(X) (h(z), h(X) – дифференциальные энтропии соответствующих процессов).
Дифференциальная энтропия – относительная информационная содержательность непрерывного процесса (h(z)=-∫W(z)log(Wz)dz). Т.к. шум нормальный и его дисперсия σ2=G0F, то: h(X)=0.5log(2πe σ2). Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом с дисперсией Рс. Тогда максимальное количество взаимной информации равно: I(Z,U)= 0.5log(2πe (σ2+Рс))- 0.5log(2πe σ2)= 0.5log(2πe(1+Рс/σ2). Т.к. процесс на выходе канала связи финитный по спектру, то полностью определяется по теореме Котельникова, т.о. в единицу времени следует передавать 2F отсчетов, тогда получаем: C=2F*I(Z,U).
Билет 22
1. ШПС
К некоторым системам связи предъявляется требование скрытности. Противник не должен обнаружить факт передачи. Сигнал нужно спрятать в шумах, чтобы обычный сигнал принять с хорошим качеством, он должен быть мощнее шумов, резко выделяться.
ШПС(шумоподобный сигнал) - сигналы с широким спектром, т.е. мощность передатчика распределяется по большой полосе частот и спектральная плотность такого сигнала мала. Сигнал малозаметен на фоне помех.
К таким сигналам относятся:
-Коды Баркера (3,5,7,11,13)
-М - последовательности (длина сотни импульсов)
Их называют псевдослучайные последовательности(ПСП). Их база B=2FT (гдеF-ширина спектра ППС;T-длительность ПСП)
Согласованные фильтры обычно используются для оптимального приема шумоподобных сигналов, аналоговый фильтр согласованный с ШПС содержит: линию задержки, фазовращатели (если + знак не меняется, если – знак меняется на противоположный), сумматор, фильтр согласованный с одиночным прямоугольным импульсом.
2. Энтропия
Количество информации, которое заключено в некотором сообщении с вероятностью появления p(i), равно: I=-log2p(i).Свойства количества информации:
1)чем меньше р, тем больше I.
2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.
3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.
4)количество информации величина неотрицательная.
Энтропия H - это среднее кол-во информации приходящееся на одно сообщение
Для дискретного источника независимых сообщений энтропия вычисляется по формуле:
H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).
Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны Hmax=logm
Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax
Наиболее часто используются двоичные системы связи m=2. Энтропия двоичного источника вычисляется по формуле:
H(m=2)=-p(1)*logp(1)-[1-p(1)]log[1-p(1)]
Энтропия двоичного источника максимальна если p(1)=p(0)=0.5
Чем больше энтропия, тем больше информации несет один символ и тем больше скорость передачи информации при заданной бодовой скорости - количество посылок в единицу времени
Основные способы увеличения энтропии:
1)наличие корреляционных связей между символами уменьшает энтропию.
Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.
Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим
2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"
Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.
3)Для дальнейшего увеличения энтропии увеличивают основание кода m.
Билет 23
1. Оптимальный приемник двоичных сигналов
Способность Системы связи препятствовать мешающему влиянию помех называется помехоустойчивостью. Максимально достижимая помехоустойчивость называется потенциальная помехоустойчивость, которой соответствует минимальная вероятность ошибки р (р=limNoш/N (где N –общее количество переданных символов, Nош- количество ошибок).
Система связи работает с такими вероятностями: р=10
-1−10-3 удовл.качество
р=10-4−10-6 хорошее качество (используют для передачи речи); р=10-7−10-9 отличное.
Приемник реализующий потенциальную помехоустойчивость, т.е. обеспечивающий минимальную вероятность ошибки, называется оптимальным приемником
Правило работы оптимального приемника, если передаваемый сигнал двоичный:
если р(1/z)>p(0/z) решение R=1
если р(1/z)
Пусть в линии связи действует единственная помеха (АБГШ), со спектральной плотность G0, тогда сравнение условной вероятностей эквивалентно следующему сравнению:
∫[z(t)-U1(t)]2dt <∫[z(t)-U0(t)]2dt R=1; ∫[z(t)-U1(t)]2dt >∫[z(t)-U0(t)]2dt R=0
Структурная схема идеального приемника Катальникова
Физическая сущность "0" и "1" зависит от вида модуляции.
1)Двоичная амплитудная модуляция(ДАМ)
U1(t)=UmCosw0t
U0(t)=0
2)Двоичная частотная модуляция(ДЧМ)
U1(t)=UmCosw1t
U0(t)=UmCosw0t
3)Двоичная фазовая модуляция(ДФМ)
U1(t)=UmSinw0t
U0(t)=-UmSinw0t
2. Преимущества и недостатки ИКМ
Преимущества ИКМ
1)Сигнал ИКМ цифровой. Цифровые микросхемы очень малы по размеру. Цифровые микросхемы обеспечивают требуемую стабильность(два логических уровня 0 и 1), их абсолютная величина не важна.
Цифровой сигнал имеет высокую степень унификации и стандартизации. Разные типы сообщений передаются одними и теми же цифровыми сигналами. Т.о. цифровая аппаратура более компактна и дешевая.
2)Сигнал ИКМ обладает свойством регенерации(восстановление частично пораженных помехой импульсов-сигналов)
если z(t)>V то на выходе 1
если z(t)
Без регенерации происходит накопление шумов при переприеме.
При регенерации складываются не шумы, а ошибки. Это позволяет на порядок увеличить дальность связи.
Недостатки ИКМ
1)Ширина спектра сигнала ИКМ значительно больше ширины спектра исходного аналогового сигнала. Ширина спектра сигнала ИКМ равна ширине спектра одиночного импульса.
Ширина спектра ИКМ в 2n раз больше ширины спектра исходного аналогового сигнала.(n-длина кодовой комбинации) (Т=1/2nFв – длительность одного импульса, Пикм=1/Т).
2)Операция квантования приводит к тому, что сигнал ИКМ поражается специфической помехой, которая называется "шум квантования". При квантовании истинный уровень заменяется ближайшим разрешенным.
Квантование эквивалентно наложению на сигнал ИКМ помехи («шум квантования», его мощность: σ2=Δ2/12=(Umax)2/(N-1), N – число уровней квантования, Δ - шаг).
Для уменьшения квантования нужно увеличивать число уровней квантования, но при этом увеличивается длина кодовой комбинации и расширяется спектр ИКМ, чтобы этого избежать используется неравномерное квантование (маленькие уровни квантуются с маленьким шагом квантования, а большие уровни с большим).
Билет 24
1. Теорема Шеннона
По каналу связи с полосой пропускания F, в котором действует сигнал с мощностью Pc и нормальный шум с дисперсией σ2 можно передавать информацию со скоростью сколько угодно близкой к пропускной способности канала С=Flog(1+Pc/ σ2) и при этом вероятность ошибки может быть сделана сколь угодно малой.
Производительность источника – это количесвто информации, производимой источником в единицу времени: H’=H/T (H - энтропия, T – длительность сообщения).
Скорость передачи информации – количество взаиной информации передаваемой по каналу связи в единицу времени: I’=lim(I(Z,U)/T).
Пропускная способность канала вязи – максимально возможная скорость передачи информации.
Доказательство:
Количество взаимной информации содержащейся в процессе z(t) о сигнала u(t):
I(Z,U)=h(z)-h(X) (h(z), h(X) – дифференциальные энтропии соответствующих процессов).
Дифференциальная энтропия – относительная информационная содержательность непрерывного процесса (h(z)=-∫W(z)log(Wz)dz). Т.к. шум нормальный и его дисперсия σ2=G0F, то: h(X)=0.5log(2πe σ2). Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом с дисперсией Рс. Тогда максимальное количество взаимной информации равно: I(Z,U)= 0.5log(2πe (σ2+Рс))- 0.5log(2πe σ2)= 0.5log(2πe(1+Рс/σ2). Т.к. процесс на выходе канала связи финитный по спектру, то полностью определяется по теореме Котельникова, т.о. в единицу времени следует передавать 2F отсчетов, тогда получаем: C=2F*I(Z,U).
2. Способы увеличения энтропии
Количество информации, которое заключено в некотором сообщении А с вероятностью появления p(А), равно: I=-log2p(А).
Свойства количества информации:
1)чем меньше р, тем больше I.
2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.
3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.