Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 139

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

48 КЛАССИЧЕСКИЕ МЕТОД i..7 ИДЕНТИФИКАЦИИ [ГЛ . 2

Эти функции получаются из полиномов Лагерра умноже­ нием на экспоненту, так что для многочлена Лагерра

Ln(t) =

1

п = 1, 2, . .

(2.6.1)

(п — 1)!

соответствующая п-я функция Лагерра определяется как

gn (0 =

 

t > 0 ,

О,

(2.6.2)

 

f < 0.

Функции gn (i) ортогональны при всех t ЕЕ [0, оо]. Прош­ лые значения входного сигнала можно представить рядом

и (— t) =

2

vngn(t),

0,

(2.6.3)

 

W—1

 

 

 

оо

 

 

 

vn =

^

и (— т ) ( т )

dx.

(2.6.4)

 

о

 

 

 

Ясно, что необходимые нам коэффициенты Лагерра мож­ но получить, пропуская х (t) через цепочку линейных ди­ намических звеньев. Рассмотрим генерацию коэффициен­ тов Лагерра с помощью линейной системы с передаточной функцией, являющейся преобразованием Лапласа уравне­

ния (2.6.1)

1 -1П-1

Gn(s) =

(2.6.5)

 

* + “9Г

Эта система показана на рис. 2.6.1. Для полного исполь­ зования всех выгод разложения входного сигнала в ряд по функциям Лагерра, в излагаемой теории предполага­ ется, что для возбуждения системы на вход подается гаус­ совский белый шум. Можно показать, что при таком выбо­ ре входного сигнала функции Лагерра оказываются некор­ релированными гауссовскими случайными процессами с равными дисперсиями. Поскольку полиномы Эрмита ор­ тогональны при всех t Е= I— оо, оо], естественно восполь­ зоваться разложением оператора системы по функциям Эрмита. Для л-го полинома Эрмита т)„ (и) Винер определил (л 1)-ю функцию Эрмита как

# „ (и) = e-(u2/2)rin (ц).

(2.6.6)


2.6

ВИНЕРОВСКАЯ ТЕОРИ Я Н ЕЛ И Н ЕЙ Н Ы Х СИСТЕМ

49

Винер показал, что формулы перехода от коэффициентов Лагерра входного сигнала к выходному сигналу можно записать в терминах функций Эрмита с помощью ряда

ОО ОО ОО

x(t) = lim 2 S

••• 2

aU-hHi(ui) Hj(u2) ... H h(up). (2.6.7)

 

P * * 00 i —1 3=1

h = l

 

Его

коэффициенты <ху...ь можно определить, умножая

обе

части уравнения

на соответствующие произведения

Рис. 2.6.1. Генерация коэффициентов Лагерра с помощью линейной системы.

функций Н п (и) и усредняя по t Е [— оо, оо]. Однако, благодаря выбору входного сигнала и формы разложения, необходимое усреднение можно осуществить путем опре­ деления корреляционной функции выхода системы и по­ линомов Эрмита. Например, можно показать, что

т

ац..л = (2я)р/2 lim

^ и (t) % (иг) т)3 (щ )... % (ир) dt

=

Т-*оо

_ т

 

 

= (2n f 2u (t)v (i)‘.

(2.6.8)

Это уравнение резюмирует винеровскую эксперимен­ тальную теорию нелинейных систем. На рис. 2.6.2 пред­ ставлена схема вычислений, необходимых для реализа­ ции этого метода. Несмотря на кажущуюся простоту урав­ нений (2.6.8), приведенное выражение предполагает вы­ полнение, вообще говоря, бесконечного числа операций. Для практического использования винеровской теории необходимо обрезать все операции, связанные с предель­ ными переходами, как по отношению к продолжительности измерений, так и по отношению к числу членов в разло­ жении и (<). Анализ погрешностей, связанных с подоб­ ным усечением, был бы исключительно сложным. Кроме


50

КЛАССИЧЕСКИЕ МЕТОДЫ ИДЕНТИФИКАЦИИ

[ГЛ . 2

того, дополнительные трудности связаны с особенностью описанной процедуры, неосуществимой в режиме нормаль­ ного функционирования, поскольку в течение длительного

Рис. 2.6.2. Схема для оценки коэффициентов Винера.

времени система должна подвергаться воздействию спе­ циальных тестовых сигналов. Далее, мы не рассматрива­ ем нестационарные и неустойчивые системы. Наконец, возникает необходимость перехода от коэффициентов Винера к параметрам системы дифференциальных урав­ нений, что часто оказывается непростой задачей. В цити­ руемых нами в библиографии работах можно найти много дополнительных деталей этого метода идентификации.

2.7.ЗАКЛЮЧЕНИЕ

Вэтой главе был исследован ряд методов идентифика­ ции, которые в прошлом использовались весьма эффектив­ но. Рассмотрены различные процедуры: от простых чис­ ленных алгоритмов решения уравнения свертки в разделе

2.2до более сложной методики изучения реакции на си­ нусоидальный входной сигнал для линейных нестационар­

ных систем. Остальные главы книги посвящены исследо­ ванию так называемых современных подходов к задачам идентификации. Прежде чем заняться этим мы, однако, должны определить функции штрафа для задач идентифи­ кации, что и составляет содержание следующей главы.


Глава 3

ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДЕНТИФИКАЦИИ

3.1.ВВЕДЕНИЕ

Вэтой главе будут исследованы некоторые функции штрафа, которые можно использовать в задачах иденти­ фикации. Под функциями штрафа для задач идентифика­ ции понимаются потери или штраф, связанные с недости­ жением абсолютно точной идентификации. К примеру, если истинное значение подлежащего определению пара­

метра равно 0, а получаемая оценка равна 0, подходящей функцией штрафа может служить (0 -т-0)2. Собственно говоря, истинное значение параметра 0никогда точно не­ известно; именно это и является основной причиной воз­ никновения задачи идентификации. Следовательно, бо­ лее разумным является использование статистических

характеристик отклонения 0 от 0. В общем виде в случае векторного параметра 0 эта характеристика может быть записана в виде

 

 

 

ОО

M = 8{C[Q{Z) | Z }=

$ C[Q(Z)]p(Q\Z)dQ =

 

 

 

— со

ОО

ОО

ОО

 

= 5

$ ...

5

С [0 (Z)] р (01Z) <50! d02... dQN. (3.1.1)

— СО — ОО

— ОО

 

Здесь С [0 (Z)] означает цену ошибки (штраф за ошибку). Ошибка определяется формулой

0J(Z) =- 0 — 0 (Z),

(3.1.2)

где 0 — истинное значение параметра и 0 (Z) — оценка параметра, основанная на некотором наблюдении Z. Фор­ мула (3.1.1) представляет условное математическое ожида­ ние штрафа за ошибку в оценке параметра и получается непосредственно применением основной теоремы о средних

52 ФУНКЦИИ Ш ТРАФА В ЗА Д А Ч А Х ИДЕНТИФИКАЦИИ [ГЛ. 3

значениях. Наиболее распространенными функциями цены ошибки являются квадратичная

С [0 (Z)] = II0 - 6 (Z) I = [0 - e (Z )fs [ 0 - е (Z)],

(3.1.3)

где S — неотрицательно определенная симметричная мат­ рица, и ступенчатая

1/е,

II 0 ( 2) I > е ,

Q0(Z)1 =

(3.1.4)

О,

10(2)1 < 8 .

Минимизируя (3.1.1) оптимальным выбором 0 (Z) при квадратичной цене ошибки вида (3.1.3), легко прийти к

выводу, что наилучшей оценкой 0 (Z) является условное математическое ожидание

оо

0(Z) = ^ 0p(0|Z)d0.

(3.1.5)

Критерий (3.1.4) часто рассматривается при достаточно малом е, так что эквивалентной (3.1.4) становится функ­ ция штрафа

N

 

С 10 (Z)] ------П * п 10, — Oi(Z)].

(3.1.6)

i=l

 

Подставляя (3.1.4) в (3.1.1) и переходя в полученном вы­ ражении к пределу при е, стремящемся к нулю, или непо­ средственно подставляя (3.1.6) в (3.1.1), получим штраф­ ную фун ;цию максимума апостериорной вероятности

Я — — р [0(Z)|Z],

(3.1.7)

когда необходимо выбором 0 (Z) минимизировать Я. Та­

кая оценка 0(Z) называется оценкой максимальной апо­ стериорной вероятности (МАВ), поскольку эта оценка по­ лучается максимизацией условной плотности вероятности р[0| Z] и обычно находится из уравнения

дР (01Z)

= 0.

(3.1.8)

90

®=®MAB(z )

 

 

 

В дальнейшем мы будем часто использовать оценки МАВ.


3.1]

ВВЕДЕНИЕ

53

Более традиционной, чем штрафная функция максиму­ ма апостериорной вероятности, является штрафная функ­ ция максимального правдоподобия (МП); в этом случае максимизируется условная плотность вероятности наб­ людений относительно параметра 6. Оценка определяется из уравнения

д р (Z | 8)

(3.1.9)

ее ®=»МП<2)

при этом параметру 0 присваивается значение, при кото­ ром наиболее вероятно появление наблюдавшейся реали­ зации Z. Легко понять, что оценки МАВ и МП тесно свя­ заны, поскольку, согласно формуле Байеса,

Р (GIZ) = Р (Z 10) р (0)/р (Z).

(3.1.10)

Поэтому оценка МАВ есть оценка МП, в которой априор­ ная информация об оцениваемом параметре, содержащаяся в плотности вероятности р (0), используется для улучше­ ния оценки. В оценке МП не используются никакие апри­ орные знания о подлежащем оцениванию параметре 0.

Проиллюстрируем разницу между двумя подходами на простой задаче, которая нам еще понадобится впоследст­ вии. Рассмотрим идентификацию А-вектора состояния х(к), порождаемого линейной автономной моделью

х(Л + 1) = Ф(Л + 1,й)х(Л).

(3.1.11)

М-вектор наблюдений, производимых в присутствии шу­ ма, имеет вид

z (к) = Н (к) х (к) + v (к),

(3.1.12)

причем шум у (к) — последовательность гауссовских слу­ чайных величин с нулевым математическим ожиданием и таких, что

cov {V (к), V (;)} = Vv {к) j), cov {v (к), х (у)} = 0, (3.1.13)

где бк — символ Кронекера. Сначала рассмотрим задачу построения оценки х (к0) методом максимального прав­ доподобия, т. е. путем максимизации функции правдопо­ добия

Р [Z (kf) |х (&„)]

(3.1.14)

54 ФУНКЦИИ

Ш ТРАФ А В ЗА Д А Ч А Х ИДЕНТИФИКАЦИИ [ГЛ. 3

выбором х (&„). Идентификация х (к0) подобным

образом

эквивалентна

идентификации х (к) для к0

к ^

kf, так

как х (к) порождается х (к0) в соответствии с (3.1.11).

Символ Z (к/) используется для обозначения

всех z (к),

к0 <

к < А/.

 

 

 

 

 

Для первых двух условных моментов имеем следую­

щие

выражения:

 

 

 

 

 

&(z (к) |х (Аэ)} =

Н (к) х (&) = Н (к) Ф (к, к0) х (к0), (3.1.15)

где

 

var {г (к) |х(А:0)} =

\ у (к),

(3.1.16)

 

 

 

- 1

 

 

 

 

 

 

 

 

 

Ф ( М о ) = П Ф ( с И , / ) .

(3.1.17)

 

 

 

 

3=*о

 

 

Функция правдоподобия, или

условная

плотность

Z (kf)

относительно

х (к0), является гауссовской и

p[Z(kf)\x(ka)\

И

 

1

 

 

 

( 2 , л ) м <г Г ( le t V v ( к ) ] ' ' X

 

 

 

А=..о+1

 

 

 

Xexp {— 0,5 (z (к) — II (к) х (&)]т Уу1 (к) [ъ (к)

-Н (к)х(к)]}}. (3.1.18)

Видно, что максимизация (3.1.18) эквивалентна ми­ нимизации штрафной функции метода наименьших ква­ дратов :

,

ЪФ) Н (к) х (к) f S,

(3.1.19)

/ = 4-

/£=*„+1

Vv (4

 

Эта минимизация должна производиться по х (к0), причем

х (к) = Ф (к, к0) х (к0).

(3.1.20)

Объединяя два предыдущих уравнения, дифференцируя по х (й'0) и приравнивая производную нулю, легко полу­ чить

Ht

*мп (*о) = М '1 (kf, Аг0) 2 фТ(^> *о) Нт(к) V ;1 (к) z (к), fc=Kvf'1

(3.1.21)