Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 153

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

120

ГРАДИ ЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ. 4

1)задаться начальным значением а\ Ь* вектора пара­ метров рт = [ат, Ьт],

2)решить дифференциальное уравнение

 

х*' = F (Ь*) х*(t) + g (а*) и (t),

х*(0) = 0,

 

 

 

3) решить систему сопряженных уравнений

 

 

 

= h [z (t) -

hTx{ (01 -

FT (b{) Щ ),

V (tf) =

0,

 

 

=

 

 

 

 

 

 

r a (t,) = o,

 

 

=

 

 

 

 

 

 

r i(f/) = 0 ,

 

 

4) определить изменения оценок параметров

 

 

 

 

Аа^ =

- П

аг1(0),

 

 

 

 

 

 

Ab': =

-

^дьГЦО),

 

 

 

 

 

5) вычислить новое приближение

 

 

 

 

 

 

ai+i

=

а» +

Аа1,

 

 

 

 

 

 

bi+1 =

Ъ* +

дь*

 

 

 

 

и

продолжать вычисления,

начиная

с

пункта 2), до

до­

стижения сходимости.

 

 

 

 

 

 

 

 

мо

Важно отметить, что для идентификации р необходи­

располагать

реализацией

входного

сигнала

и (t)

и

«скорость» идентификации будет зависеть от этого вход­ ного сигнала.

В этой постановке предполагалось, что может быть достигнуто абсолютное совпадение выходных сигналов модели и объекта. Но, конечно, выход объекта в действи­ тельности может быть искажен помехой, а уравнения модели и объекта могут быть уравнениями разного по­ рядка. В подобных случаях логично предположить, что х (0) не задано, и определить Дх*(0), которое войдет в вы­ ражение для дифференциала функции штрафа

Д / = Хт (0)Ах(0),

используя формулы

АхЧ0) = — ЯдхЬЧО),

x*+i (0) = х1 (0) + Ах1 (0)



4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИ НАМ ИЧЕСКИ Х СИСТЕМ 121

для итеративного вычисления вектора начальных усло­ вий, который требуется для решения дифференциального Уравнения из пункта 2). Неудобство этой процедуры со­ стоит в том, что обычно получаются начальные условия, отличные от нулевых.

Используя дискретную модификацию градиентного метода, можно решить задачу идентификации дискретной передаточной функции

3(«)

ao + ctiz + . . . + а п_г г п 1

= Ж(г) =

U ( z )

Ро + ры + . . . + P ^ z " - 1 '

Конечно, и здесь вычисления можно упростить, заменив их приближенными вычислениями. Так, читатель отме­ тит тесную связь между рассматриваемым примером и алгоритмом идентификации эталонной модели из главы 2.

Один из наиболее удобных путей упрощения сводится к использованию предположения о том, что постоянные параметры а и b могут быть идентифицированы приме­ нением статического варианта градиентного метода. Строго говоря, это неверно, хотя и может быть оправдано про­ стотой процедуры приближенных вычислений. Для общей задачи минимизации функционала

Ч

/ = jj<p[x(£), p(f), t]dt

to

при ограничениях

X = f [X (t), р (0, t],

X (to) = х0,

Р = о

будем задаваться начальным значением р! и, решив си­ стему дифференциальных уравнений, оценим величину функции штрафа /*. Слегка изменяя р{, для нового зна­ чения р* + Bj найдем штраф + т]/, /-ю компоненту вектора-градиента функции штрафа можно приближенно оценить как

dJ

(j i +

у - j i

=

dpj ~

(Р* +

ер — р1

ej

122

ГРАДИЕНТНЫ Е М ЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ . 4

Повторяя эту процедуру для возмущений различных компонент вектора параметров, определим приближенное значение вектора-градиента dJIdpк Первое приращение вектора параметров в направлении наискорейшего спус­ ка к минимуму функции штрафа составит

dpi1

а новое приближение для вектора параметров определится как

pi+1 = р*+ Ар1.

Простота приближенного метода позволила положить его в основу нескольких итерационных схем главы 2, од­ нако трудно оценить ошибку, связанную с приближен­ ным вычислением djldp1 (процедура точного вычисления свелась бы к уже известным алгоритмам решения динами­ ческих задач). Приближенная процедура приводит к су­ щественным ошибкам, особенно тогда, когда функция штрафа не очень чувствительна к изменению вектора па­ раметров. Последнее, к сожалению, довольно часто имеет место, если измерения или наблюдения искажены поме­ хой и имеются неизвестные входные сигналы.

Так же как и в статическом случае, можно рассмотреть разложение в ряд функции штрафа динамической задачи до членов второго порядка малости. Для функции штрафа (4.3.17) такое разложение имеет вид

» г

Г 900

, д

ПТ А .

1

А

Т

920о д .

 

 

А / =

Ы г +

J

Ах° +

Т

Лх°

Ахо +

 

 

+

9 0 ,

 

Аху + -4~ Ax j

Ах/ -f Г^Аро — ГJ Ар/ +

9х^

 

 

 

 

 

 

 

dxf

 

 

 

 

fc,-l

 

 

 

 

 

 

 

 

 

 

 

+ 2 В 1 - ^ Т ах + Ш Т а « + [ ^ - г а р +

 

К=ки

 

 

92Я

 

 

д дП

д

дН

 

 

 

 

 

 

 

 

Ах'

 

 

+ 4"

Дх

 

9х2

 

9и 9х

дх

 

 

Аи

 

Г 9

дН

 

92Я

9

дН

Ди

 

 

 

9и 9х •]

 

9и2

 

 

. АР .

 

Ар

 

 

9 'дН 1Т Г д дН 92Я

дх J L9и 9р J 9р2

(4.3.42)


4.3] МЕТОДЫ ИДЕНТИФИКАЦИИ ДИНАМ ИЧЕСКИХ СИСТЕМ 123

Для упрощения обозначений индекс к (номер шага) опу­ щен. Чтобы упростить выражение (4.3.42), потребуем выполнения условий (4.3.18) и (4.3.19), в результате для А / получим

AJ =

ЭОо

 

-|Т

 

 

 

 

 

 

 

 

Л х 0 +

 

- т т г А х о +

 

 

Эхо

 

 

 

 

 

 

 

 

 

 

1

т

Э20,

 

 

 

*Г г

[ ^ - ] Т Ли

 

т у

4х'

4 Х, + Г ]4 р 1 + 2

 

дх?

 

 

 

'к~ко

 

 

 

 

 

 

 

э*я

 

 

 

 

 

 

 

 

д

дН

д

дН

 

 

 

Дх

т

Эх2

Эи

дх

Эр

дх

Дх

+

Ди

 

д

дП Т

Э2Я

д

дН

Ди

 

Эи

Эх

Эи2

Эи

Зр

 

 

ДР _

■V

 

дН'Т Г

9

ГЭЯ

т| дЧ1

Др

 

 

Т — -

 

 

 

_ L

Эр

дх

ди

Эр

“Зр2-

_

(4.3.43)

Отметим теперь, что можно осуществить дополнительную минимизацию (4.3.43) по Ах, Др и Ди. Эту минимизацию следует проводить при учете соотношений (4.3.14) и (4.3.15), используя которые, получим

Ах -j- 1) =

Эф

 

Ах (к)

 

дх (к)

 

 

д

 

дН

■JАх

„ Эх (к) дХ (к)

 

Эф

Аи (к)

Эф

 

Эи (к)

э

ЭЯ

др (А) АР (*) =

(к)

 

] Аи (к) +

 

_ Эи (к)

дХ (к)

 

ддН

Эр (к) Э ?Д ч ]ЛР^ ; (4 -3 -44^

А р(& + 1) = Ар (к).

(4.3.45)

Обычное применение дискретного принципа максимума приводит к двухточечной задаче для уравнений (4.3.44), (4.3.45), а

4и>=*<-[етщГ{['

Эи (к)

Эх (к) J

 

 

э;

ЭЯ -I1 Ах (к)

 

_ Эи (к)

дН

тт

ДА, -|- 1)

 

дХ (к) _

 

 

Э

ЭЯ

дП

} , (4.3.46)

_ Эи (к) Эр (к)

Ар (к) Эи (к)


124 ГРАДИЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ [ГЛ . 4

4МЧ-= Ь ^ Н * > + [ ^

г Ш

 

J

4и<*> +

 

+

Г д

дП 1

,т.ч , г д

дН

 

АХ(к

1), (4.3.47)

L йр (к)

дх (к) ■] АР (к) + [ дХ(к) дх (к)

 

 

 

[WW^w]

А 1 (к + !)+

 

 

 

Э

дП

 

 

 

 

4 Г Й = 4 Г № + 1) , L

W

 

 

 

 

“t

[ j p ®

] 4 Р <4 +

\.,Цщ Щ ц ] Ли (Ч + дх (к)

Йр (к) ]A x№)-

 

 

 

 

 

 

 

 

(4.3.48)

Здесь А Х и ДГ — множители Лагранжа, которые удовлет­ воряют условиям на концах:

41 <*•> -

- t w

~ х <*•> - т Ш 4х (« • <4-зд9>

ДГ(А0) =

- Г ( А 0),

(4.3.50)

=

 

(4-3-51)

ДГ (kf) — 0.

(4.3.52)

Так же, как и в статическом случае, использование вторых приращений определяет изменение управления от итера­ ции к итерации. Сложность вычислительных алгоритмов существенно возрастает по сравнению с градиентным ме­ тодом первого порядка. В то же время сходимость ока­ зывается квадратичной и гораздо более быстрой. Однако область начальных условий и начальных приближений к управлению, гарантирующая сходимость, существенно сужается.

Схема вычислений такова:

1)задаться начальным значениемиг(к), х1 (к0) и р»(&0);

2)решив уравнения (4.3.14) и (4.3.15), определить траекторию х; (к) и параметры р* (к); ясно, что для реше­ ния уравнения (4.3.15) вычислительная машина не по­

требуется, так как р{(к) = рг(&0); 3) решить сопряженные системы уравнений (4.3.18)

и(4.3.19) в «обратном» времени от kf и /с0;

4)решить линейную двухточечную задачу (4.3.44) —

(4.3.52).

Благодаря линейности задачи для ее решения можно воспользоваться мпожеством различных методов (см.