Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 158

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

3.4]

КРИТЕРИЙ МАКСИМУМА ПРАВДОПОДОБИЯ

97

 

 

 

 

 

 

 

Т а б л и ц а

3.4.2

Алгоритмы

первого порядка идентификации

 

но

максимуму правдоподобия

 

(коррелированные шумы объекта и наблюдений)

 

Уравнение фильтра условного среднего

 

 

х (А + 1, 0) = х + 11к, 0) -{- К + 1) {z (А + 1)

 

— h [ х (А: + 1 |к, 0), А +

1]}

 

 

Уравнение одношаговой экстраполяции

 

 

 

i + 1 |к,

0) = <р [2 {к |0),

к) +

Кр (к) {г {к) ■

 

 

— h [х (к \к — 1,

0), А]}

 

 

Уравнение для коэффициента усиления фильтра

 

К + 1) =

 

 

 

 

 

= V - (* + 1 |Л, 0)

9hT[J (А 4-1 I*. 0). k + i]

х .

 

дх (к -J- 1 |А, 0)

 

v ( * + i i fc- 0>

Уравнение для априорной дисперсии ошибки идентификации

дер [х (А |0), А]

 

д(рт [х(А|0),

А]

V ; (А+1 [А, 0) =

дх (к I 0)

V=(A)

д х (А |0)

+

 

 

 

 

+ Г [х (А |0), к] Vw (А) Гт [х (А |0),

А ] -

 

-K P (A)VZ- 1(A|A-1, 0)Кр (А) —

^'|й> ~ к (*)v»» (t>гТI»(* I е>’ *1 -

ОХ (А |И)

д<рт [х (А |0), А]

— Гт [х (А|0), A] Vwv (А) Кт (А)

Эх (А |0)

Уравнение для дисперсии ошибки фильтрации

V£(A + 1|0) =

dhf [х (A -f 1 |А, 0), А +

1]1Т

= 1 - К ( А + 1)

Vx + 1 |А, 0)

дх(к + 1 1к, 0)

 

Уравнение для коэффициента усиления одношаговои экстра­ поляции

Кр (А) = Г [х (А |0), к] Vwv (А) V"1 (А + 1 |А, 0)

4 Э. П. Сейдж, Дж. Л. Мелса


98 ФУНКЦИИ Ш ТРАФ А В ЗА Д А Ч А Х ИДЕНТИФИКАЦИИ [ГЛ . 3

Т а б л и ц а 3.4.2 (продолжение)

Штрафная функция идентификации по максимуму правдо­ подобия

1

2 111 det Vz (А I А -

1, 0) +

 

 

 

J = —

 

 

 

 

ii—ki

 

 

 

 

 

 

-j-||z(A')

h [ х (А |А

1, 0, Л] ||у-1 q.j

|

 

 

 

 

 

 

, 0)’

 

(А: I * — 1, 0) =

Vv (A) +

dhT [х (А |А — 1,

0), А]

X

ах (л1ft — 1,

0)

 

 

 

 

 

 

ЭЬт [х (А |А— 1,

0),

А]

 

х V - (А' | /с — 1 , 0 )

дх (А |А — 1,

0)

 

 

 

 

 

 

 

Начальные условия фильтрации

 

 

 

 

х (0 10, 0) = рХо, V - (0|0, 0) =

VXo

 

Остальные алгоритмы первого порядка фильтрации ус­ ловного математического ожидания нуждаются в анало­ гичных изменениях. Эти изменения вносятся без труда, и получающиеся в результате приближенные алгоритмы сведены в табл. 3.4.2.

Пример 3.4.2. Вернемся к примеру 3.4.1, предполагая, что теперь имеется второе наблюдение, определяемое уравнением

z2 (к) = w (к) + va (к),

причем шумы объекта и наблюдений коррелированы, так что

z(k )

Гг (A) I

Гх (А) +

v (А)

Lz 2 ( f t ) J

(А) + V i (А)]■

 

h[*(fc). *1

= [*оА)] *

 

[w (ft)+i»(A)]’

 

 

 

=

[0F№], Vv = Г »

0 ■

Применение алгоритмов из табл. 3.4.2 немедленно при­ водит к следующей функции штрафа и ограничениям


3.4]

КРИТЕРИЙ МАКСИМУМА ПРАВДОПОДОБИЯ

99

в

форме

равенств

 

/

= 4 - 2

{in det [F0 ф- F~ (/с |/с — 1, Ф) +

 

f* (А) — * (* I А — 1, Ф)]* ] + Р, + Р~(А |Л -1, Ф)

х (к + 1 1к, Ф) = Ф х (к |к — 1, Ф) +

z2(k) +

фУ~(к\к— 1, Ф)

+ 7: ( ф - 1 , Ф ) + Т , [z( * ) - * ( * ! * - ! , Ф)],

 

ф2V Г~ (А: |А — 1, Ф)

| т ;

V2

V~(k + i\k, Ф)

^ х

w

7 - ( А | А - 1 , Ф ) + Г„

+

Vv ,+ Vv. '

 

На рис. 3.4.5 показана зависимость функции штрафа J от Ф для ряда значений VV2. Очевидно, что при Ни -> оо

Рис. 3.4.5. Зависимость функции штрафа от Ф при двух разных значениях Рг2; пример 3.4.2. (VvlIVW = 1, х0 = 0, к( = 800).

наблюдение z2 (к) становится бесполезным, и алгоритмы этого примера вырождаются в соответствующие алгоритмы примера 3.4.1.

4*

100 ФУНКЦИИ Ш ТРАФА В ЗАД АЧ АХ ИДЕНТИФИКАЦИИ [ГЛ . 3

3.5.ВЫВОДЫ

Вэтой главе были сформулированы и изучены функ­ ции штрафа для задач идентификации дискретных систем по критериям максимума апостериорной вероятности и максимума правдоподобия. Для нескольких примеров был осуществлен вывод ДТКЗ идентификации и переход к непрерывному случаю. Теперь мы обратимся к вычис­ лительным методам определения состояния и параметров в задачах идентификации.


Г л а в а 4

ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАЦИИ

4.1. ВВЕДЕНИЕ

Рассмотрим теперь вычислительные методы иденти­ фикации. В этой главе будет исследован один класс пря­ мых методов, известных под названием градиентных. Эти методы получили название прямых из-за того, что при их использовании на каждом шаге минимизируется функ­ ция штрафа, тогда как в косвенных методах таких, как квазилинеаризация (см. главу 6), предпринимается по­ пытка решения двухточечной краевой задачи, появление которой связано с тем, что на каждой итерации исполь­ зуются принципы теории оптимального управления.

Сначала будут рассмотрены статические или одно­ шаговые задачи с последующим переходом к изучению многошаговых и непрерывных ситуаций. В дополнение к основному градиентному методу или градиентному мето­ ду первого порядка рассматривается также разложение нелинейностей до членов второго порядка малости, по­ зволяющее строить градиентные методы второго порядка или методы вторых вариаций, которые обладают преиму­ ществом более быстрой сходимости. В заключение будет изучен метод сопряженного градиента, в котором опреде­ ляются сопряженные направления поиска, и в результате, за т шагов минимизируется положительно определенная квадратичная форма т переменных. Этот метод сочетает многие преимущества градиентных методов первого и второго порядков.

Применение градиентных методов демонстрируется на примере идентификации нескольких систем. Наиболее

доступное изложение градиентных методов

можно,найти

в книгах Сейджа [116] и Брайсона и Хо [24]. В этих кни­

гах градиентные методы применяются в

основном для

решения задач оптимального управления. Беки и Карплюс [12] пользуются градиентными методами первого

102

ГРАДИЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ. 4

порядка в гибридных вычислениях. Градиентным методам посвящено много журнальных статей, однако большин­ ство из них связано с решением задач теории оптималь­ ного управления, а не идентификации. Многие из этих статей включены в библиографию.

4.2. ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАЦИИ СТАТИЧЕСКИХ СИСТЕМ

Вот уже много лет известен способ решения экстре­ мальных задач, основанный на применении классического градиентного метода или метода наискорейшего спуска. Принципиально задача состоит в отыскании экстремума скалярной функции М-вектора:

/ = 0 (и).

(4.2.1)

Как известно из дифференциального исчисления, в экс­ тремальной точке должны выполняться следующие необ­ ходимые условия:

 

<П_

d9 (u)

 

(4.2.2)

 

du u=u

du

u=u

Вектор dJ/du

часто

называют градиентом,

а условие

dQ (u)/du = 0

определяет систему

M нелинейных урав­

нений, которая может быть достаточно сложна, чтобы из нее можно было найти оптимальный вектор и. Если это так, то можно воспользоваться итеративным методом, ос­ нованным на разложении 0 (и) в ряд Тейлора в окрест­ ности какого-то значения и\

Имеем

/ = 0(и) = 0 (и*) +

] 1 (и — и*)

 

 

L

o il J

 

 

 

 

т d28 (и1)

 

 

+ -ня- (и — и1)

(du1)2

(ц — и{) +

(4.2.3)

Ограничившись линейными членами разложения, по­

лучим

 

d0 (и1)

 

/ = 0 (и) ж 0 (iT) +

(4.2.4)

du1

U{).

 

 

 

 


4.2] МЕТОДЫ ИДЕНТИФИКАЦИИ СТАТИ ЧЕСКИ Х СИСТЕМ ЮЗ

Теперь допустим, что значение

функции J при

и = и1

известно п вычислим

 

 

 

 

А /4 = 0 (и) — 0 (и4) :

dQ(и4) И

Ди\

(4.2.5)

rfu4 J

где

 

 

 

 

 

 

 

АГ = / —

Аи4 = и — и4.

(4.2.6)

Хочется выбрать Аш таким, чтобы А7* было как можно меньше нуля, обеспечивая тем самым наискорейший спуск в направлении минимума J. Из уравнения (4.2.5) ясно, что для минимизации AJ* при условии (ДшуДДи1 *= а необходимо

Аи4= - К

(4.2.7)

где К 1 — положительное число, являющееся, быть может, функцией номера итерации i; это число выбирается из соображений обеспечения сходимости, скорости сходи­ мости и т. п. Оптимальный вектор Q определяется путем прямых вычислений. Используется какое-то приближение

и* и вычисляется d Q (u{)/du4. Аи»

определяется из (4.2.7),

а для ui+1 имеем

 

 

 

ui+1 = u4 + Au4 = u1-

Ю

.

(4.2.8)

 

 

dvr

 

Вычисления продолжаются до тех пор, пока заметны су­ щественные изменения и от итерации к итерации. Однако в сходимости процедуры нельзя быть уверенным, если не ограничить выбор К1. Это утверждение иллюстрируется простым примером.

Пример 4.2.1 Необходимо решить систему линейных алгебраических уравнений Аи = Ь относительно и. Ясно, что и = А_1Ь, однако реализация этой формулы в случае системы высокого порядка может привести к сложной вычислительной процедуре. Известно, что неотрицатель­ ная функция штрафа

1 1