Файл: Ширман, Я. Д. Разрешение и сжатие сигналов.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 16.10.2024

Просмотров: 117

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

только мешающих колебаний. Основываясь на (6), условие оптимума оценки (5) приводим к виду:

— ln / (u IЯ) = 0 при

Я = Я(и).

(7)

дл

 

 

В соответствии с (7) можно использовать

готовые результаты анализа

различных вариантов обнаружения для отыскания алгоритмов опти­ мального измерения.

Эти же результаты облегчают отыскание послеопытиой дисперсии измеряемого параметра. Повторно учитывая пропорциональную за­ висимость послеопытиой плотности вероятности параметра от отноше­ ния правдоподобия, после логарифмирования получаем

Іп р (Я I u) = In / I Я.) Ч- const.

(8)

Разложим правую часть равенства (8) в ряд по степеням (Я— Я). Пола­ гая ошибки малыми, ограничиваясь в силу этого первыми тремя члена­ ми ряда и используя (7), находим для скалярного Я:

 

 

Г—

in /(и I я) 1

( а . - я )2/2

 

jj{X\u) = C é dX"'

J

.

(9)

Уравнение (9) соответствует нормальному закону ошибок

 

о(Я|и) = —

е - ( ь - Ѵ 2/2о\

(Ш)

'

К 1

/ 2 па

 

ѵ

Сравнивая (9) и (10),

имеем С = 1/]/"2ла и

 

 

1/а2^

— д Ч п І ( и \ К ) / дХ \ =%.

(11)

Возможные отступления от нормального закона (10) и смещения оцен­ ки максимального правдоподобия, соответствующие несколько более интенсивным помехам, здесь и далее не учитываются.

До сих пор речь шла об измерении одного скалярного параметра. Положение существенно не меняется, если измеряется н е с к о л ь к о с к а л я р н ы х п а р а м е т р о в и 1, является ^.-мерной вектор­ ной величиной. Так, оценки максимума послеопытиой плотности ве­ роятности и максимума правдоподобия определяются как координаты точек экстремума (1), (5) функций нескольких переменных. При ква­ дратичной функции потерь оптимальная векторная оценка полу­ чается как интеграл от Яр (Я | и) по всем скалярным параметрам. Ска­ лярные оценки при интегральной функции потерь находятся из систе­ мы уравнений вида (4), дифференцирование в каждом из которых ве­ дется по своему скалярному параметру.

По аналогии с (11) величину

 

ctj = — ö2 ln / |ЯЬ ... , ЯД/дЯ£дЯ;-

( 12)

§ 3.1.4.

323


можно рассматривать как удвоенный коэффициент при квадратичных членах разложения в ряд выражения (8). В нормальном (гауссовом) приближении

м-

р ( К ..., I и) == ехр V са (К h ) (^j hj) (13)

і. І—1

Корреляционный момент ошибок измерения скалярных параметров (с номерами i, j) определяется соотношением

 

еи = М [(X,-

%t)(\j -

ij)] =

55

( h - h ) X

 

 

 

 

 

 

(hl, • • ■. Ä-ц)

 

 

Х (^ — i j ) p { K ,

.... V | u ) d k 1

... d X ^

(14)

Вводя

матрицы с = ||

||

и e

= || ец ]|,

из

(13)—(14) для

гауссовой

статистики можно получить

[49, 51,

70]

 

 

 

 

 

 

е =

с-1.

 

 

(15)

Поэтому послеопытные дисперсии измеряемых скалярных пара­

метров

я в л я ю т с я

(в гауссовом приближении) д и а г о н а л ь ­

н ы м и э л е м е н т а м и м а т р и ц ы е, о б р а т н о й м а т р и-

ц е

с с э л е м е н т а м и (12). Соотношение (11) можно рассматри­

вать

как частный случай (15) для р. = 1.

 

§ 3.1.5. РАЗРЕШЕНИЕ— ОБНАРУЖЕНИЕ — РАЗЛИЧЕНИЕ

Важнейшей составной частью разрешения для ряда приложений является оценка числа I приходящих от целей сигналов (0 <С / < т) при некотором максимально возможном их числе т. Сочетания / про­

извольно выбранных из т сигналов могут быть осуществлены Сгт спо­ собами. Таким образом, общее число 2п возможных комбинаций отсут­ ствия и наличия сигналов, соответствующее полному разрешению, раз­ бивается по группам событий / = 0, 1, ..., т (ни одной, одна, ..., т целей на контролируемом участке дальности)

т

*т = Ъ

Сш-

(1)

1=

0

 

Равенство (1) согласуется с известным разложением бинома Ньютона

(1 + 1)т .

В связи с изложенным примем следующую нумерацию возможных событий (/ = 0, 1, ..., 2'"—1). Событию отсутствия сигналов /= 0 при­ своим номер j — 0 и отнесем его к нулевой группе. Событиям наличия

одного сигнала (/ = 1) дадим номера } = 1, ..., С1т + 1, относя их к первой группе событий, и т. д. Совокупность всех 2т возможных со­ бытий разбивается постепенно на + 1) групп этих событий с номе­ рами I = 0, ..., т при неодинаковом числе событий в каждой группе.

324

§ 3.1.5.


Аналогично,

на +

1) групп k =

О,

1,

т разбиваются все воз-

можные решения об этих событиях.

 

 

 

 

 

 

 

Выражение для среднего риска (3) можно привести к виду

 

 

 

 

 

 

 

Q

— 2

 

2

 

 

 

Р lv Ркіцѵ !

 

 

 

(2)

 

 

 

 

 

 

 

 

к ,

/

Ц ,

V

 

 

 

 

 

 

 

 

где

I — число

сигналов; k

=

I — его оценка; ѵ — номер

сочетания

I сигналов из т (1 <

ѵ < Ст1);

р. =

ѵ — оценка ѵ.

 

 

 

 

Совокупность элементов а*/^,

 

соответ­

 

 

 

 

 

ствующая фиксированным значениям k, I,

I—

 

 

 

 

образует

подматрицу

матрицы стоимости.

\ о

 

I О

\к=0

I -1

 

Различие диагональных

(/г =

/) и недиаго-

I—

L -

 

 

нальных

(к Ф I) подматриц должно стиму­

! о

-/

о

о

к=1

лировать

правильное

определение

числа

 

 

 

о

к^2

сигналов

I (числа

целей в группе).

Разли­

О

О

-1

чие диагональных

(р =

ѵ)

и недиагональ­

[ _ _ ! —

 

4—

|

ных (р Ф ѵ)

элементов

каждой

 

подматри­

\ О

I о

о \ - 1

 

цы

может

 

стимулировать

 

правильное

 

*)

 

 

определение параметров сигналов. При

 

 

 

выборе

элементов

применимы

 

принципы

 

с=і

 

 

построения

простой,

квадратичной

и т. д.

1=0

С=2

 

матриц стоимостей различения. Так, ис­

 

S)

 

 

пользуя принцип построения

простой мат­

Рис.

З.І.І.

Пояснение мат­

рицы стоимости,

все

элементы

недиаго­

рицы

потерь различения с

нальных

подматриц (/г Ф I)

и недиагональ­

выделением подматриц (а)

ные

элементы

Ф ѵ)

диагональных под­

для

различных вариантов

матриц

 

(k =

/) можно

выбрать

равными

(б) наличия

целей на двух

нулю.

Диагональные

элементы

(р = ѵ)

 

позициях.

 

последний

принимаются

равными

— 1

числу). Пример подоб­

(или

какому-либо другому

отрицательному

ного построения 2т -элементаой

матрицы с

выделением

подматриц

для

т = 2

показан

на рис.

3.1.1.

 

 

 

 

 

 

§3.1.6. РАЗРЕШЕНИЕ — ОБНАРУЖЕНИЕ— ИЗМЕРЕНИЕ

ИЕГО АЛГОРИТМЫ ПРИ ПРОСТОЙ ФУНКЦИИ СТОИМОСТИ

Полагая, что интервал возможного изменения параметра сигнала равномерно заполнен т значениями этого параметра и, переходя к к /ті—>-оо, приходим к важному случаю полного разрешения, включаю­ щему н а р я д у с о б н а р у ж е н и е м и о ц е н к о й ч и с л а I разрешаемых сигналов о ц е н к у непрерывно распределенных зна­ чений их п а р а м е т р о в. Такой подход был четко сформулирован

вобщем виде И. А. Большаковым [115] и Нильссоном [61]. Выражение для среднего риска Q запишем в виде

Q —

ahl\^h’ ^l) p

^l) dhfrdhi.

(1)

к, I

(Xh. Xt)

 

 

§ 3.1.6.

325


Здесь I — число разрешаемых сигналов; k = I •— оценка этого числа;

— вектор параметров

разрешаемых

сигналов; \ к — оценка векто­

ра параметров;

Pt — априорная вероятность наличия

I сигналов;

Phi — Р (/г I /) — условная вероятность

оценки /г при действительном

числе сигналов

I; р {Хк,

Xt) — совместная плотность вероятности зна­

чений вектора

оценок

Хк и

вектора

параметров Xt;

aki (Xh, А,) —

функция стоимости решения.

Векторы

А, полужирным

шрифтом не

выделяем.

 

 

 

 

 

Считая, что решения k — І (и) и Хк = Хк (u) принимаются в неслу­ чайной зависимости от принимаемых колебаний и = u(t), перейдем, как и в § 3.1.2, к условному среднему риску

Q (£, К I и) = 2

$ a h i ( K > h ) P { K /1и) cfA,z.

(2)

I

(X,)

 

Здесь p (A,,, / [ u) — совместная послеопытная плотность вероятности вектора непрерывного параметра А,, и числа сигналов /, нормирован­ ная так, что

2 $р(Аь l\u)dXt = L

 

!

 

 

 

 

Перейдем к

а л г о р и т м а м

р а з р е ш е н и я

— о б н а р у ­

ж е н и я — и з м е р е н и я

п р и

п р о с т о й

ф у н к ц и и

с т о и м о с т и ,

что методически

представляется наиболее удобным.

Введем простую функцию

стоимости

а к1 (Хк, X,)

разрешения *—

обнаружения — измерения:

 

 

 

 

 

ahl Оѵп ^і) —

 

 

при l = k,

(3)

 

 

О

при Іфк.

 

 

 

 

Выражение условного среднего риска (2) существенно упрощается

Q(k, Xh \u) = — P(Xk,k\u).

Его минимальное значение соответствует абсолютному максимуму послеопытной плотности вероятности

шах р (Xh, k I и), где k = 1 (и), Xh = А,, (и),

(4)

что определяет оптимальные значения оценок / (и), \

(и).

 

Используя вытекающее из теоремы умножения равенство

 

p(Xh L\u) = - ^ — Pip(Xl)p(u\l, А,,)

 

 

Pi и)

 

 

и заменяя k на I в условии (4), последнее приведем к виду

 

max [ln р(и 11, Х,) + 1п Рі + 1п p(Xt)] при/ = /(и),

A,; = Â;(u).

(5)

Порядок оптимизации в (4) и (5), вначале по Xh а затем по /, или наоборот, произволен. Вычисления, однако, облегчаются, если, после-

326

§ 3.1.6.


довательно задавая дискретные I, при каждом из них находить Х1(и). Сравнивая значения (5) для различных / при соответствующих им

Х; (и), устанавливаем оптимальное значение I (и) = /г.

В случае р (А,,) = const оценка Хг (и) максимума послеопытной плотности вероятности параметра X (для фиксированного /) совпадает с оценкой максимума правдоподобия

max ln р (u I /, Xt) при А.г= Х г(и).

(6)

Условие абсолютного максимума (6) при малом уровне шума пере­ ходит в условие относительного

- щ - • In р(и ! Я,, ..., XtH, ...). = 0

при Хі.л = ХіѵХи).

(7)

Здесь Хи —■скалярная составляющая вектора Хр и — номер состав­ ляющей. Если система уравнений (7) невырожденная, решая ее, мож­ но определить все составляющие вектора к = 1, ц.

Далее можно перейти к сопоставлению выражений вида (4) или

(5) при различных значениях I с тем, чтобы установить оптимальную

оценку числа сигналов I (u) = k. Последнее равносильно сопоставле­ нию отношений правдоподобия (см. § 1.1.2) для конкурирующих ги­ потез наличия I и / •— 1 сигналов. Соответствующее неравенство для логарифма отношения правдоподобия

р(ц]СА;)

р ( и I

/ — 1 ,

(8)

l)

должно соблюдаться при I ^

/г и не соблюдаться при I > /г. Уровень

порога, с которым сравнивается логарифм отношения правдоподобия, определяется априорной статистикой /.

Правило (8) является видоизменением (4) или (5). Поиск абсолют­ ного максимума некоторой функции натурального числа I сводится, таким образом, к последовательному сравнению ее значений для Ім I — 1. Эвристически подобный алгоритм дан еще в [66].

При написании (6)—(8) полагалось, что априорные данные отсутст­ вуют: было принято р (X) = const. Решение заметно не усложнится, когда р (X) Ф const. В левые части уравнений (7) добавятся в этом случае производные логарифмов априорных плотностей вероятности, а в левую часть (8) — логарифм их отношения для значений параметра

X = Xt и X = Хн1.

Не произойдет также заметного усложнения, если в порядке обобщения функций стоимости (I) ввести неодинаковый ущерб от неправильных решений для различного числа выдаваемых сигналов, полагая

«лг(А;г, Х[)— — a h ö(Xh— Х[).

Соотношение (7) от этого не изменится, уровень же порога в (8) изменится на ве­ личину ln (aj-j/a;).

§ 3.1.6.

327