Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 140

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

3 . 1] ВВЕДЕНИ Е 55

где

к/

М (к, , к 0) = 2 фТ (*, к0) Нт (к) Y ;1 {к) Н (к) Ф (к, к0).

к~кц-\-1

(3.1.22)

Для существования решения уравнения (3.1.21) М (А/, к0) должна быть обратимой.

Требование обратимости М (kf, к0) известно под назва­ нием условия наблюдаемости (Сейдж [116]).

Можно получить непрерывный вариант рассмотренной

задачи, сгущая точки фиксации так, чтобы к

оо, kf Т —>

1} , к0Т - у t 0 и

кТ - > t . Используем определения

F (t) =

lim [Ф ((к + 1) Т, кТ) — 1]/Т,

(3.1.23)

 

kT-*t

 

Н (t) =

lim Н (кТ),

(3.1.24)

 

к->эо

 

 

kT-+t

 

4Fv (t) =

lim TYv (kT).

(3.1.25)

 

Jf-*oo

 

 

kT-+t

 

Плотность распределения вероятности вида (3.1.18) не существует, так как становится бесконечномерной, но уравнение (3.1.19) сохраняет силу и превращается в пре­ деле при уменьшении шага фиксации в формулу

j ' = 4- |>И О -

Н (0 х (0 « ;-г dt.

(3.1.26)

<0

V

 

Разностное уравнение (3.1.11) заменяется дифференци­ альным

x = F (t)x(t),

(3.1.27)

которое следует использовать в качестве

ограничения

при минимизации (3.1.26). Записав

решение (3.1.27)

в виде

 

х(*) = Ф (Мо)*(<о),

(3.1.28)

додставив это соотношение в (3.1.26), продифференцировав


56 ФУНКЦИИ Ш ТРАФ А В ЗАД АЧ АХ ИДЕНТИФИКАЦИИ [ГЛ. 3

его по х (t0) и приравняв результат нулю, получим

 

 

 

lf

 

 

к (t0) =

МГ1 (t„ to) 5 Фт (t, t0) HT(t) z (t) dt,

(3.1.29)

 

 

 

to

 

где

матрица

 

 

 

 

ч

 

 

M (t,

to) =

§ Фт (<, to) HT(0 'Fv1 (t) H (t) Ф (t, to) dt

(3.1.30)

 

 

to

 

 

обратима,

если система наблюдаема (Сейдж [116]).

В

тех

же

обозначениях, использованных нами для

определения оценки МП, на основе (3.1.10) можно полу­ чить выражение функции плотности вероятности для на­ хождения оценки МАВ. Поскольку р [Z (&/)] не зависит от переменной, по которой производится максимизация, то задача максимизации р (k0) |Z (А/)] полностью экви­ валентна максимизации безусловной совместной плот­ ности вероятности

ц[х,(/с0), Z(k/)] = p[Z(kf))x(k 0))p[x(ko)}. (3.1.31)

Очевидно, что для выполнения желаемой оптимизации необходимо большее количество статистической инфор­ мации. В частности, необходимо знание плотности (апри­ орной) распределения х (к0)- Предположим, что она яв­ ляется гауссовской со средним значением цХо и диспер­ сией VXo. Совместная плотность распределения, согласно

(3.1.18), примет вид

р [х (к 0), Z (к/)] =

 

 

1

 

 

 

 

r r exp {— 0,51x (ко) — цХо f x} X

(2n)Nl'2 [det VXJ

 

'ч>

x

hf

1

exp {— 0,5! i (k)

П

____ _____________i t -

Л

0+г

(2rt)M'a [det (*)]*/-

 

 

 

 

H(A) Ф (к, k0) x (k0) f -i

}• (3.1.32)

 

 

 

Vy (ft)

Максимизация

этой функции

цлотцости

вероятности


3.1] ВВЕДЕНИ Е 57

эквивалентна

минимизации штрафной функции вида

J = - т \ Ы к о ) - Ы Г , +

Z

VXo

 

(3.1.33)

Приравнивание нулю градиента по х (к0) этой штрафной функции метода наименьших квадратов приводит к сле­ дующему выражению для оценки:

ХМАВ (*о) — [Vxo + м (kf, к0)) 1 X

x [ v i V * . + S ®T(*,Ao)H(A)V;1(ft)Z(&)], (3.1.34)

/С=/С(гЬ1

где М {kf, к0) определяется формулой (3.1.22). Интересно вычислить дисперсии ошибок оценок МП

и МАВ, которые определяются формулами

var {хмп (к0)} = var {х (к0) — хМп (к0)} = М 1 (kf, к0), (3.1.35)

var {хмав(^о)} = var {х (к0) — хМАв (к0)} = [ ' + М (kf„ /с0)]-1. (3.1.36^

Видно, что дисперсия ошибки оценки (или идентификации) по методу МАВ меньше, чем по методу МП. Легко пока­ зать, что обе оценки — несмещенные. Эти утверждения основаны на предположении о правильном выборе пара­ метров априорного распределения, используемого для улучшения алгоритмов идентификации. Если априорное распределение выбрано ошибочно, оценка МП может ока­ заться лучше оценки МАВ. Полный анализ ошибок, во­

просов выбора

априорного распределения и связанных

с этим вопросов

чувствительности, читатель может найти

в главах 6 и 8 книги Сейджа и Мелсы [127].

Выражение оценки МАВ в непрерывном времени легко получить, если уплотнить точки фиксации и использовать определения (3.1.23) — (3.1.25). Уравнение (3.1.33) примет

Sg ФУНКЦИИ Ш ТРАФ А В ЗА Д А Ч А Х ИДЕНТИФИКАЦИЙ £МГ. 3

ВИД

J = ~2 ~IIх (to)

Мх0IL-1 “Ь

 

 

 

ч

Х

0

 

 

 

 

 

 

 

 

+ I IIZ (О -

н (t) Ф (t, to) X (to) I\ l-id t.

(3.1.37)

 

/.

 

 

v v it)

 

Оценка MAB теперь запишется в виде

 

ХМАВ (to ) =

Ч

+ М (t f , £0)] 1 +

 

 

 

 

 

 

 

+

[ $ Фт (£, to) н

(t) V ? (t) z (t) dt

V x> XoJ,

(3.1.38)

 

^0

 

 

 

 

где M (tf,

t0)

определяется уравнением (3.1.30).

 

Дисперсии ошибок двух непрерывных оценок равны

var (хМц (£o)} =

var {х (t0) — хмп (t0)) = M_1 (tf, t0),

(3.1.39)

var { х м а в (t0)} = var (x (t0) x Ma b (£<>)} =

lVx,1 + M (tf, £„)] x.

 

 

 

 

 

(3.1.40)

По-прежнему дисперсия ошибки оценки МАВ меньше, чем дисперсия ошибки оценки МП.

Может показаться, что эти линейные схемы построе­ ния оценок не применимы к задачам идентификации, ко­ торые часто нелинейны. Исключение составляет иденти­ фикация весовой функции линейной системы. Однако нелинейные задачи идентификации можно линеаризовать, как, например, в главе 6 (квазилинеаризация). В этом случае методы данного раздела применимы непосредст­ венно. Есть ситуации, в которых методы, рассмотренные в этом разделе, неприменимы. Они возникают при наличии неизвестных входных сигналов, управляющих поведе­ нием системы. Обратимся теперь к этой задаче и рассмот­ рим вопросы оценки динамики нелинейных систем.

3.2. ИДЕНТИ ФИКАЦИЯ ПО КРИТЕРИЮ МАКСИМУМА АПОСТЕРИОРНОЙ ВЕРОЯТНОСТИ

В этом разделе будет исследован байесовский подход, или метод максимума апостериорной вероятности (МАВ) в применении к обобщенным задачам оценивания, задачам идентификации. Мы покажем, что многие задачи иденти­


3.2]

МАКСИМУМ АПОСТЕРИОРНОЙ ВЕРОЯТНОСТИ

59

фикации можно сформулировать как задачи оценивания по критерию максимума апостериорной вероятности. Бу­ дет показано, что при гауссовском априорном распределе­ нии оценка по максимуму апостериорной вероятности эквивалентна некоторой оценке по методу наименьших квадратов. Приводятся также развернутые формулировки соответствующих функций штрафа и двухточечных кра­ евых задач, для решения которых можно применить вы­ числительные методы глав 4—7.

Наибольшее внимание в этом разделе уделяется дис­ кретным моделям оценивания. Основные результаты будут затем переформулированы для непрерывных моделей.

Дискретные модели формирования сигнала и наблю­ дений задаются уравнениями *)

х + 1) =

ф [х (к),

к\ + Г [х (к), Л] w (к),

(3.2.1)

 

z (к) =

h [х (к), к] +

v (к),

 

(3.2.2)

где х (к) — TV-мерный вектор

состояния, ф [х (к), к] —

TV-мерная вектор-функция, множество значений которой

охватывает

все возможные

входные сигналы, Г [х (к), /с]

— TV X М-матрица,

w (к) — М-мерный

вектор

входно­

го шума, z (к)

— Т?-мерный вектор наблюдений, h [х (к), &]

— if-мерная

вектор-функция,

\(к) — ТТ-мерный

вектор

помехи измерений.

 

 

 

 

 

Через х (к)

обозначен обобщенный вектор состояния

в к-й точке

фиксации х (tk)

или х (кТк).

В дискретных

моделях оценивания w (к) и v (к) предполагаются незави­ симыми марковскими последовательностями гауссовских независимых случайных величин с нулевыми средними значениями и такими, что

<g

{w (к) wT (/)} =

Vw (к) — /),

(3.2.3)

8

{V (к) ут (/')} =

Vv (к) бк (А - /),

(3.2.4)

где 6к (А — Д — символ Кронекера, a Vw (к) и Vv (к) — симметричные неотрицательно определенные ковариа­ ционные матрицы размерности М X М и R х R сооответственно.

*) Точная постановка задачи идентификации в такой форме будет дана ниже в этом разделе.


60 ФУНКЦИИ Ш ТРАФ А В ЗА Д А Ч А Х ИДЕНТИФИКАЦИИ [ГЛ. 3

Непрерывную модель оценивания часто выводят с по­ мощью не вполне строгого предельного перехода, так что

она

получается

непосредственно из

дискретной

модели

по

мере

сгущения точек фиксации,

т.

е.

когда

tk+1

tk =

Тк (шаг

фиксации) стремится

к

нулю,

tk

1.

Эта непрерывная модель оценивания задается уравне­ ниями

X(0 =

f [х (t),

t] + G [х (t), t\w (0,

(3.2.5)

z{t) =

h[x(t),

t] + v(0>

(3.2.6)

в которых w (t) и v (t) считаются белыми гауссовскими шумами с нулевыми математическими ожиданиями, так что

ё М О wT (Т)} =

(Оби (t -

т),

(3.2.7)

Ш{V (0 vt (т)} =

lFv (0 6D (t -

т).

(3.2.8)

Связь дискретной и непрерывной моделей устанавлива­ ется следующими нестрогими предельными соотношениями:

f [X (0, 0

=

lim -i- (<p [x (A), k] — x (A)},

(3.2.9)

 

 

Tfe—0

1 к

 

 

 

t f t

 

 

G [x (0, 0

=

Hm

(Г [x (k), A]},

(3.2.10)

 

 

t*-*о

k

 

 

 

tk-^t

 

 

h [x (0, 0

=

lim

h [x (A), A],

(3.2.11)

 

 

'rfr*0

 

(0 =

lim

Tk\y, (A),

(3.2.12)

 

 

tf*

 

 

V,v (0 =

lim7,*Vv (A).

(3.2.13)

 

 

tk-*t

 

 

Отметим, что определяющее непрерывную модель диф­ ференциальное уравнение (3.2.5) записано в не вполне корректной форме и должно быть заменено стохастическим дифференциальным уравнением

dx(0 == f [ x(0, 0 &

О [х (0> 0 du (О»

(3.2.14)