Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 137

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

7.2J НЕПРЕРЫ ВНЫ Е СИСТЕМЫ 211

где

a ( t ) =

2 e - о-1'.

Уравнение наблюдаемого сигнала

z (t) =

(!) 4- у (1).

Предположим, что форма а (t) известна, но неизвестно на­ чальное значение и масштаб отсчета времени. Математи­ чески это можно записать так:

д (1) e tg (t)

=

xt (1) Xg (t) -f- ws (1),

ti.

( t) =

— Ц74 ( < ) ,

где неизвестны начальные условия для ж3(1) и #4(1). До­

пустим, что {iXo

=

О,

 

г 3 1 4 4

 

 

 

 

 

 

 

 

 

 

 

 

___

!

13 11

 

 

 

 

 

Р (0) = ~2

1 1 3 1

 

 

 

 

 

 

- 1 1 1 3 -

 

а f ,

=

1 и 4*w

=

I. Уравнения для оценок запишутся как

хх (t)

=

(<) +

Ри (1) [z (1) — хх(1)],

 

х%(<) =

2хх (t) — х3 (t) х\ (t) — Зхг (t) +

5sin t 4-

Xg (t) =

xt (t) Xg (t) +

P31(t) [z (t) — xx(1)],

=P ll ( 0 [z ( 0 — Xi(t)\

P = - PHHTP 4-

- P 4- P-9fT[x’ 4

4 -1,

dx

 

dx

'

*

где

 

 

 

 

' 1~

Г

X g

 

 

0

2xi —ХзЖ®— 3X5

0 , f lx, 11=

X XX g

 

 

- 0-

 

0

 

 

На рис. 7.2.1 изображены оценкиx(l).

Отметим,

что оцен­

ки xx(t) и x2(t) «отслеживаются» гораздо лучше, чем х3 (t) = «= а (<) и х4(<) == Ь.

в*


212

ИНВАРИАНТНОЕ ПОГРУЖЕНИЕ

[ГЛ. 7

Пример 7.2.2. В качестве еще одного примера исполь­ зования инвариантного погружения для решения задач идентификации рассмотрим задачу определения ошибок

Рис. 7.2.1. Оценки траектории и параметров для примера 7.2.1 (-------- истинное значение,--------оценка^.

смещения при линейном последовательном оценивании (Сейди; [117] , Сейдж и Лин [124]). Модель входного сипнала имеет вид

х ( 0 = F ( 0 х ( 0 + G (() w ( f) .

(1 )

7.2)

НЕПРЕРЫ ВНЫ Е

СИСТЕМЫ

213

Уравнение

наблюдения имеет

вид

 

 

z(Q = H(0x(0 + v(*).

(2)

Задача последовательного оценивания, когда желательно оценить х (t), основываясь на последовательности наблю­ дений Z (/) = (т), 0 т ^ t) решена многими автора­ ми (Сейдж и Мелса [127]). Обычно предполагается, что средние значения входного шума w (t) и ошибки измере­ ний v (£) известны. Если это не так, то могут возникнуть серьезные ошибки вплоть до расходимости фильтра. Рас­ смотрим применение метода максимального правдоподо­ бия для построения адаптивных алгоритмов последователь­ ного оценивания для входного шума и ошибки измерений с неизвестными средними. Известно, что максимизация функции правдоподобия эквивалентна решению детерми­ нированной оптимальной задачи. Это приводит к ДТКЗ, которая решается методом инвариантного погружения, в результате строится последовательная оценка средних значений имеющихся помех. Пусть х (0), w (t) и v (t) — некоррелированные гауссовские процессы, для которых

pw

А Щ{w (*)},

cov {w (t),

w (т)} = *FW(0б(t т),

 

Pv

A $ {v(*)},

cov{v(£),

v(t)} = Wv (t)b(t — т),

(3)

# {x (0 )}A p Xo,

var {x (0)} = VXo. ■

 

Нетрудно показать, что в этом случае максимизация функ­ ции правдоподобия p[Z (^ )| pw, pv] для уравнений (1), (2) сводится к минимизации функции штрафа

I f '

/ = T j ! и (0 P-v — H ( 0 x ( f ) f l V i (J)* , .

(4)

о

где оценка х (t) с минимальной дисперсией определится как

х == Fx

G]iiw + К (z — pv — Нх),

 

(5)

- k = -vHTv ; 1,

 

-(б)

V =

FV +

VFT + GT4rwG— VHT‘Fv1HV,

(7)

x (0) =

fix,,

' T '

~

•'' *<8)

V ( 0 ) - V ^

- (9)


214 ИНВАРИАНТНОЕ 'ПОГРУЖЕНИЕ [ГЛ. 7

Предполагается, что средние значения

помех неиз­

менны, т. е.

0,

( 10)

=

Av =

о.

(11)

Таким образом, оценка смещения по методу максималь­ ного правдоподобия сводится к задаче теории оптималь­ ного управления. Необходимо минимизировать функцию штрафа (4) при ограничениях (5), (8), (10) и (И).

Для решения задачи, которая поставлена в предыду­ щем разделе, применимы обычные методы теории оптималь­

ного управления. Это приводит

к ДТКЗ (5), (10),

(И)

с сопряженной системой

уравнений

 

i -

HT4r;l (x fiv-- H i) -

(FT - HTKT) X,

(12)

(A -

- GT),,

 

 

(13)

V -

v ;1(z — juv -

Hi) + к та,.

(14)

Условия на концах имеют вид

 

x ( 0) = fix„,

X{tf) = 0,

со (0) = 0,

(A(tf) = 0,

v (0) = 0,

V (tf ) = 0.

Если решить эту ДТКЗ для t е

[0, tf], то будут получены

сглаженные оценки {tw и pv на конечном интервале.

Теперь можно использовать

метод инвариантного по­

гружения для получения последовательных оценок мак­

симального правдоподобия

и jtw.

Это приводит к сле­

дующим уравнениям:

 

 

 

 

Pw -

(Pi,HT +

Ргз) Vv (z —

— Hi),

(15)

Pv =

(Pj3HT +

P33)

( z - { i y - Hx),

(16)

X =*= Fx + Gjhw + (K +

P11HT,F;1+ Pl8V ? ) (z — fiv — Hx),

 

(17)

P u — (F — KH) Pu + Pu (F - KH)T + G P l + P 12Gt -

- KP£, - PWKT -

(PnHT + P13) ЧГ? (HPU + P *), (18)


7.2]

 

НЕПРЕРЫ ВНЫ Е

СИСТЕМЫ

 

215

Рп =

(F — КН) Р12+

GP22-

КР£ -

 

 

 

 

 

 

- (РиНт + Р „) ЧГ'1(НРц +

Р*),

(19)

f»13== (F - КН) Р13+

GP23-

КР33-

 

 

 

 

 

-

(Рцнт + Р13) Ту1(НР13+

Рм),

(20)

р42=

_

(р£н* +

Р23) ф ;1(НР14+ р£),

 

( 21)

Р2з =

-

( № +

Р23)

«Г? (НР12+ Р33),

 

(22)

Рзз =

-

(РиН'1+

Р33) V ? (НР13+ Р33).

 

(23)

Так как это оценки максимального правдоподобия, бес­ смысленно пробовать определить оптимальные начальные условия, отличные от х (0), которое должно быть устано­ влено в соответствии с априорным средним р, (0). Для других переменных можно использовать «приемлемые» начальные условия. Можно также выбирать начальные ус­ ловия, решая ДТКЗ для коротких промежутков времени.

Следует отметить, что решение уравнения (17) не яв­ ляется калмановской оценкой х (t) из (5), хотя при доста­ точно больших t решения (17) сходятся к x(t). В действи­ тельности даже не нужно решать(5), для того чтобы опре­ делить оценки максимального правдоподобия |iw и р¥. Необходимо, однако, решить уравнения (G) и (7), являю­ щиеся составной частью алгоритмов метода максималь­ ного правдоподобия. В вычислительном плане такой под­ ход имеет существенное достоинство. Можно показать, что

в (17) К значительно превосходит (РПНт + р 13) ф ;1 и , следовательно, ошибка в определении последнего члена

не скажется существенно на оценке х. В то же время ошиб­

ка вычисления (PUIIT -{- Р13) Фу1 скорее всего превосхо­ дит ошибку вычисления К или V, так как уравнение Риккати для определения Р может быть значительно более высокого порядка, чем уравнение Риккати для V.

Задача адаптивной фильтрации при неизвестном сме­ щении (неизвестны входной шум и ошибка измерений) также может быть решена путем присоединения к модели

(1)

уравнений jiv =

0 и ц, = 0.

При

этом стремятся

по­

лучить оценки х, pw и Pv, обладающие

минимальной дис­

персией. Так как

не имеется априорных данных о pw

и

jiv, невозможно

определить

начальные условия

в


216 ИНВАРИАНТНОЮ ПОГРУЖЕНИЕ 1.ГЛ. 7

получающихся алгоритмах оценивания. Получаемые алго­

ритмы

оценивания достаточно

громоздки, а именно:

 

х

=

Fx + GjLtw +

(PUH 1+

Р13) ‘Pv1(z — Hx —ytv), (24)

Pw =

(P2iHT 4- P23) V ? (z — Hx — fly),

(25)

f l y

=

(P31HT 4- P33) v ?

( Z

-

H i -

Mv),

(26)

где

 

_

_

_

 

_

_

 

 

 

S = FS 4- EFT -

SI114Fv'HE +- »FW,

 

 

 

Рп

Piv

Pis

 

 

F G 0

 

ьы —

Рг

Рет

О

р т

 

L

рт

is

1 23

Р23 , F = 0

0

0

(27)

0

0

0

 

1

 

 

 

H = [H 0 I], v w

Vw 00

o o o .

 

o o o

Несмотря на то, что эти алгоритмы могут показаться про­ стыми, здесь возникает серьезная проблема точности вы­

числений из-за того, что уравнение для Ри не связано

сдругими матричными уравнениями Риккати. Фридлянд

[40]доказал, что существует замена переменных, которая связывает уравнение (7) для V с уравнениями более высо­

кого порядка (27). Получаемые алгоритмы напоминают (15) — (23). Используемый здесь подход, который вклю­ чает метод максимального правдоподобия, теорию опти­ мального управления и инвариантное погружение, имеет преимущество, связанное с точностью вычислений, так как исходное уравнение Риккати для дисперсии ошибки входит как ограничение задачи оптимального управле­ ния. К тому же этот подход применим и к нелинейным си­ стемам.

7.3. ДИСКРЕТНЫЕ СИСТЕМЫ

Метод инвариантного погружения можно также использовать для разработки алгоритмов последовательного оце­ нивания при идентификации дискретных систем. Изложе­ ние в этом разделе будет в основном близко следовать строению предыдущего раздела, поэтому пояснения будут более лаконичными.