Файл: Свириденко С.С. Основы синхронизации при приеме дискретных сигналов.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.07.2024

Просмотров: 135

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Для оптимизации системы синхронизации можно воспользо­ ваться информационным критерием оптимальности, применение которого встречается в ряде работ [162—165].

■При разработке систем связи одним из исходных (параметров является заданная помехоустойчивость приема сигналов, которую требуется обеспечить. Целесообразно поэтому оптимизацию сис­ темы синхронизации также связать с требованиями заданной по­ мехоустойчивости. Точность определения синхропараметров сигна­ ла непосредственно определяет помехоустойчивость, поэтому при известной связи между помехоустойчивостью приема сигналов и точностью воспроизведения синхропараметров критерий оптималь­ ности системы синхронизации можно сформулировать следующим образом: система синхронизации с функционалом преобразования Z(s. X, t) оптимальна, если количество информации, извлекаемое из принимаемого колебания y(t) относительно неизвестного син­ хропараметра X(t), достигает величины, равной эпсилон-энтропии этого параметра, т. е.

S u p l(y, Х) = Нх (г).

(6.8)

Величина эпсилон-энтропии является функцией точности вос­ произведения синхропараметра и имеет величину, зависящую от требований к помехоустойчивости синхронизированного прием­ ника.

С учетом реализационных возможностей можно рассматривать готовую структуру системы синхронизации в виде, как это показа­ но на рис. 6.3 Система синхронизации является разновидностью

y(t,.А)

l i t A .u )

К генератору

УОС

 

'

1

трного сигнала

u(t)

ГУ

Рис. 6.3. Структурная схема

системы синхронизации

 

 

автоматического регулятора, 'состоящего из устройства обработки сигналов (УОС) и системы управления (СУ). На вход системы синхронизации поступает колебание y(t, X), являющееся суммой сигнала с неизвестным синхропараметром s(X, t) и шума g(f). Устройство обработки сигналов представляет собой приемник с переменными параметрами, управляемый сигналами управления u(t).

В этом случае оптимизация системы синхронизации состоит в выборе такого преобразования D(s, и) устройства обработки сиг­ налов и такого сигнала управления u(t), при которых I(y, X) до­ стигает верхнего предела, равного эпсилон-энтропии синхропараметра. Практически всегда при приеме известных с точностью до некоторых параметров сигналов преобразование D(s, и) можно считать известным. Это преобразование описывает работу управ­ ляемого активного или пассивного согласованных фильтров.

126


При известном преобразовании D(s, и) необходимо оптимизи­ ровать сигнал управления и(і) по автономно выбранному крите­ рию. Такая постановка частной задачи синтеза приемника право­ мерна [165]. Получение байесового оптимального решения в этом случае состоит в вычислении суммарных средних потерь при опре­ делении IX(t), минимизированных по функции или функционалу

и(і).

Критерий, по которому синтезируется алгоритм работы систе­ мы управления, имеет вид

Supl{z, Х) = Нх(в),

(6.9)

U

 

где z(y, и, і) — напряжение на выходе устройства обработки 'Сиг­ нала.

Задача управления в системе синхронизации — обеспечить с определенной точностью оценку неизвестного параметра X(t) при наличии действующего на входе шума.

Остановимся на определении l(z, X). Напряжение на входе си­ стемы управления

z(t) = У {%) **D(s, и, t ) = s (t , X)‘*D(s, и, т) + D(s, и, т)*£(т) =

= В(Х, и, 0 _Ь1і(0>

где

со

x { t ) * y ( t ) = \x(t)y(T — t)dt.

Если X(t) и т](і) — дискретные во времени марковские процес­ сы, количество информации о параметре 4X(t) в колебании z(t) в я-й дискретный момент времени

 

 

I (2П. К) =

(2) lOg Wn(Z) dz +

 

 

 

+

\pn С2) [

{ZI X) log wn(2 1X) dz] d X,

 

(6.10)

где wn(z)

плотность

 

вероятности

для

z n;

pn(z) =

= J wn/n-i(X/Xn-i)wps(n- i)(Xn-i)dXn-i — плотность

вероятности zn

при условии,

что zu Zb . .

z„_1 фиксированы. Так как

являют­

ся независимыми нормальными величинами с нулевым средним и дисперсией а2, которую можно определить,

 

Г

К— Вп (Х, я,,)]2)

 

 

■exp -

1-------йі-----—

 

w- (гА) “ (7 s« )"

 

2 о2

 

и второе слагаемое в

(6.10) равно — log("K2яео)™.

u =

Теперь уравнение

для оптимального

сигнала управления

= {«л} запишется в виде

 

 

 

Sup j"— \wn(z) log wn (z) cZzj = H%(e) +

log { V 2it e a)'n .

(6.11)

Учитывая некоторые свойства марковского процесса [166, 167],

определяем wn(z), находим \o g w n(z)

и

производим усреднение.

127


В результате уравнение для u(t) при интервале дискретизации входного процесса Af-M) принимает вид

S w p l J Вг [t,

X, и (0 1 wps ( X, t)dX —

и U

 

Jß [f, X, u(t)]wps{X,

= t f j e ) - |- log (j^2ne cr)m- (6.12)

Апостериорная плотность вероятности параметра X(t) в случае его непрерывного изменения может быть сформирована на основании уравнения Р. Л. Стратоновича [145, 166]:

d w P ^ X ' 0 .

= L

ц _|_ w p*(X,

t) г ф [B у ' Х ' и ^ _

dt

 

2 G0

I

- B[t, X(t),

u(t)]-----L [ß2 (f, X,

и ( 0 ) - В- (t, X, и (/))]}, (6.13)

где L(t, X) — функционал, зависящий от апостериорного распре­

деления параметра w ps(X).

 

Допустим, что форма сигнала, зависимость z(t)

от параметра

X и апостериорное распределение ШрДА) известны.

Колебание z(t)

можно представить как z ( t ) = g [ X u(t)]B(t)+r\(t), где g(X) = = ÄiSinQ7,c/t(Q7,c) в случае частотного управления и

ki{Tc— т),

0 < т < Т с,

Г(Ь) = ^2(Лс + т),

— Тс < т < 0,

[0,

т < — Тс, т > Т С

в случае временного управления.

Аппроксимируя апостериорное распределение параметра гаус­ совой кривой и подставляя соответствующие функции B(t, X, и) в (6.12), получаем конкретное уравнение для u(t).

Остановимся на определении эпсилон-энтропии неизвестного синхропараметра. Известно [21], что количество информации в слу­ чайной величине у относительно величины х определяется выраже­ нием

Цх, у) =■■ ву(.X, у) log

w (x’ f ■dxdy.

(6.14)

JJ

w ( x ) w (//)

 

Близость случайных величин x и у или точность определения х относительно у определяется как

е = f joy (х, у) с (х,- у) dxdy = Нх (е).

Величина Нх(г) представляет собой минимальное количество ин­ формации, необходимое для воспроизведения величины х с задан­ ной точностью е в смысле некоторого критерия с(х, у). Теорема

[168]

Н X (емин)

I (х> У )

показывает, что количество информации І(х, у) о случайной вели­ чине X определяет нижнюю грань средней ошибки воспроизведе­

ния этой величины.

128


Величина эпсилон-энтропии Н% (е) неизвестного синхропара­ метра сигнала представляет интерес и как предельная величина для максимизации I(z, X) по управлению u(t) и как минимальное количество информации, характеризующее неопределенность в зна­ чениях параметра X, которую необходимо устранить [162, 169] си­ стеме синхронизации.

Известно, что сигнал s(A„, Xu, t) является функцией векторов

информационных Я,„ л

мешающих

Хы параметров. Среди

второго

типа

выделим

вектор синхропараметров

Хс = {Хс г}; і= 1 ,

2, ...,

п.

Для

удобства

опустим

индексы я

будем

считать X — вектором

п

синхропараметров сигнала.

В общем случае каждый из свнхропараметров не является де­ терминированным вследствие временной нестабильности элементов передатчика и характеризуется плотностью распределения веро­ ятности своих значений w (ІМ) на выходе передатчика. Случайные

изменения характеристик канала приводят к увеличению флукту­ аций параметров. Эти изменения можно представить эквивалент­ ным «шумом синхропараметров» ,іі;(7), являющимся непрерывным

случайным процессом. Характер взаимодействия ц(t) с

зави­

сит от реализации канала. Сигнал на выходе канала

является

функцией параметров Я={Я,г}, неопределенность в значениях ко­ торых увеличивается по сравнению с входными значениями.

Система синхронизации приемника производит над принимае­ мым сигналом s(X) некоторое преобразование Z(s, X, t), миними­ зирующее неопределенность в значениях каждого из синхропара­ метров сигнала. На выходе системы синхронизации еинхропараметры сигнала (Я,/0)} остаются случайными и характеризуются

своими распределениями w ( x \ 0))-

Если за количество информации, заключенное в неопределен­ ности значений параметра X(t) (рассмотрим для простоты один параметр, опустив индекс «г»), принять минимальное число бит, необходимое для воспроизведения его с заданной точностью, т. е. минимальное количество информации, при котором удовлетворя­ ются заданные требования воспроизведения X(t), получим эпси­ лон-энтропию процесса

І(Х, Я,(0))=Л(Я.) — maxh(%/Xm ) = Hx(B),

(6.15)

ш(*,/*.№)

 

где максимум отыскивается по множеству функций w (іХ/ХЩ, ко­ торые определяются связью между X и Я,<0).

Первый член в правой части (6.15) характеризует полную не­ определенность в значениях параметра Я., второй — неопределен­ ность, оставшуюся после синхронизации. Эта остаточная неопре­ деленность обусловлена случайным характером значений синхропараметра М°) на выходе системы синхронизации из-за воздейст­ вия шума. Распределение плотности вероятности Я/0)(0 опреде­ ляется спецификой системы синхронизации по данному парамет­

ру. Входящие в (6.15)

дифференциальные энтропии

 

h

(X) = —

(Я,) log w (X) d X,

(6.16)

12Ѳ