Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 148

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 165

Так как ^ — симметрическая матрица (см. (5.3.6)), то вид­ но, что (5.3.11) можно упростить, а именно:

а (27V) = - W (27V - 1 )Г у (27V),

(5.3.32)

где обозначение а (2 7V) используется для того, чтобы под­ черкнуть, что для оценки а использовано 27V измерений. При выводе схемы последовательной идентификации форма записи (5.3.32) не используется *). Определим

S5 (27V) = [^ Т(2N — 1)У- (2N - l)]-i. (5.3.33)

Добавим еще одно измерение у (2 N + 1) и минимизируем новое выражение функции штрафа. Легко получить, что

a (2N +

1) =

$ (27V +

1) [у (21V) j

(2N + 1)] [у ^

J ,

 

 

 

 

 

y(27V + l)J

где

 

 

 

 

 

(5.3.34)

 

j [ ^ T (27V -l)iy(27V )] -i 'У (2N -

1 П р _

£P(2N +

1) =

 

 

 

 

ут (2/V)

J)

 

 

 

=

[3s (27V) +

у (27V) yT(27V)]-1.

(5.3.35)

Для того чтобы преобразовать это выражение к виду, более удобному для вычислений, воспользуемся леммой обраще­ ния матриц. В результате получим

3b(2N + l) =

= (27V) — & (2N) у (27V) [ут (2N) (27V) у (27V) + 1 Г 1 х

X yT(27V)5a(27V), (5.3.36)

где требуется вычисление обратной скалярной величины. Теперь нетрудно получить, что

a (27V + 1) = a (27V) —

— .3* (27V) у (27V) [ут (27V) .З5 (27V) у (27V) + 1 Г 1 х

X [y(27V + l) + yT(27V)a(27V)]. (5.3.37)

*) Болое систематическое изложение последовательной иден­ тификации с использованием инвариантного погружения приво­ дится в главе 7.


166

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . .5

Можно

повторить эту

процедуру для 2N + 2,

2N +

4- 3, ...

, откуда видно,

что (5.3.37) можно переписать,

заменив

2N на к. Мы видим, что алгоритм стохастической

аппроксимации (5.3.27) эквивалентен алгоритму метода

наименьших

квадратов

(5.3.37),

если

 

К{к) =

& (2к)

 

 

(5.3.38)

 

 

1 + УТ(к) & (к) у (к)

В разделе 5.1

показано,

что 5s (к)

ведет себя как 1 /к, и,

таким образом, мы заключаем, что метод наименьших квадратов и метод стохастической аппроксимации ведут к сходным результатам.

Выше предполагалось, что уравнения (5.3.36) и (5.3.37) выписываются, когда уже выполнено 2N наблюдений. Это необходимо для того, чтобы записать начальные условия

а (2N) = -

(2N - 1)]~1у (2N), 3* (2N) = [^ (2N - I)]'2.

 

(5.3.39)

Во многих практических ситуациях выбор начальных а и SP в вычислительной процедуре может быть достаточно произволен.

Вынуждаемые системы отсутствие динамики в чис­ лителе ошибки измерений. Алгоритмы идентификации по методу стохастической аппроксимации при наличии ошибок измерений существенно усложняются. Рассмотрим систему вида

Г 0 ! I

х (к) +

w (к),

x(fc + l)

У(к) = 11 0. . . 0] х (к),

(5.3.40)

 

z{k) = у (к) 4

v (к),

 

где v (к) — дискретный белый шум с нулевым средним, а z (к) — наблюдения. Можно записать одномерное разност­ ное уравнение:

z (к) -j- axz (к

1)

4- a2z (к — 2)

4-

••• +

&nz (к — N) =

= b±w (к — 1) 4-

Ь2и> (к — 2) 4- ••• +

bNw (к — N) 4-

4- v (к) 4-

apv (ft - 1) 4- ...

4-

aNv (к - N), (5.3.41)


5.3] ИСПОЛЬЗОВАНИЙ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 167

которое можно

переписать в виде

z (к) = - zT- 1) а +

w\k - 1) +

где

£

 

 

1

 

 

z (fc 1) =

 

,

v (A 1) =

z 2)

 

 

ут - 1) а, (5.3.42)

~v {к — N) '

v (к 2)

_ v — 1) _

К несчастью, уравнение (5.3.42) гораздо сложнее уравне­ ния (5.3.26) в силу коррелированности последовательности помех vT — 1) а. Таким образом,

'{(к— 1) = w(k — 1) + vT(A:— 1)а

(5.3.44)

уже не является белым шумом, так как

cov{у— 1), у(/ — 1)} Ф 0,

если

\k — j\ ^ N

и

 

 

cov{у(к— 1), у(/ — 1)} = 0,

если

|&— /|>7V.

Следовательно, нужно быть осторожным, минимизируя

/= : Ш{у2(&-1)},

(5.3.45)

у (к— 1) = z(к) -f zT — 1)а.

(5.3.46)

Можно попробовать использовать алгоритмы стохастичес­ кой аппроксимации, так ограничив выбор к, что к = О,

2 N -\- 2 и т. д., и тогда

cov {у — 1), у (/ — 1)} = о, Iк j I = (N + 1) t,

* = 1,2, ...

Минимизация (5.3.45) приводит, конечно, к тем же ре­ зультатам, что и минимизация (5.3.28). Ошибки измерений по существу игнорируются. Мы получаем

а*= — [ff{z(fc — l)z*(A — i)}\~4 {z(k — 1) z (A)}. (5.3.47)

Подстановка

(5.3.42) дает

a*

= a — IS {z — 1) zT(£ - 1)}Г1Т^„а, (5.3.48)

и мы видим, что минимизация (5.3.45) с необходимостью приводит к смещенным результатам. Если в алгоритме


168

СТ0ХАСТИЧЕСКАЯ 1АШ 1 РОКСИМАЦИЯ

£ГЛ . 5

стохастической аппроксимации вычесть смещение, обус­ ловленное использованием (5.3.45),'i то будут получены несмещенные оценки. Для получения осмысленных алго­ ритмов стохастической аппроксимации по-прежнему не­ обходимо при итерировании оценок а пользоваться реа­ лизациями помехи, разнесенными на N + 1 временной такт. Таким образом, алгоритм стохастической аппрокси­ мации имеет вид

а (Л + N + 1) - а (А) — К (k/N + 1) X

X {z + TV) [z (к + N + 1) + zT(£ + TV) a (A)] - F„a (A)},

(5.3.49)

где к = О, N -|- 1, 2N -j- 2, ... Можно легко проверить, что этот алгоритм дает несмещенную оценку.

Коэффициент К (k/N -ф- 1) выбирается, чтобы удовлет­ ворить обычным для метода стохастической аппроксима­ ции ограничениям. Отметим, что по постановке задачи не­ обходимо знание дисперсии ошибок измерений, но не дис­ персии входного шума системы. По аналогии с (5.3.38) можно получить, что подходящее, близкое к оптимально­ му, значение К определится как

К

_________ &> (к +

N + 1)__________

(5.3.50)

1 + zT + N)

(к) ъ (к + /V) ’

 

 

где

SP -f- N + 1) = SP (к) — 5s (к) г (к -f N) х

X [zT(A -ф- N) (к) z(k -ф- ./V) -ф- l]-1zT(A -f N) 3й (к). (5.3.51)

Начальные условия для а и SP не критичны и могут быть выбраны, как и в предыдущем разделе.

Пример 5.3.1. Рассматривается простейший пример идентификации Ф в случае одномерной системы

х (к -ф- 1) = Фа: (к) -ф- w (к),

у (к) = х (к),

z (к) х (к) -ф- v (к),

где w (к) и v (к) — дискретные белые шумы с нулевым средним. Система первого порядка, поэтому N = 1. В этом случае алгоритм стохастической аппроксимации (5.3.49) —


5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 169

5.3.51) имеет вид

Ф + 2) = Ф (к) + К {к!2) {г + 1) [z (к + 2 ) -

где

-

z ( k + i

) 0 ( k ) V] v<S>(k)),+

& (А + 2)

 

0>(к)1

К (к/2) =

з5 (/С + 2) =

1 + z2 (А + 1) (А) ’

1 + z* (А + 1) £ Р ( к )

для А = 0, 2, 4, 6, ... На рис. 5.3.1 и 5.3.2 показано, как сходятся алгоритмы в случае, когда входной сигнал и ошибки измерений гауссовские. Во всех случаях истинное

 

 

Итерации

Рис. 5.3.1. Последовательная

Рис.

5.3.2. Последователь­

идентификация Ф,; пример

ная

идентификация Ф2;

5.3.1.

 

пример 5.3.1.

значение Ф = 0,8. Начальное приближение Ф = 0, дис­ персия помехи 0,25 и 1,0. Начальное поведение кривых су­ щественно зависит от выбора & (0). После нескольких итераций (обычно 3—5) результаты перестают зависеть от начального выбора & (0). Интересно отметить, что да­ же после 1000 итераций уменьшение функции штрафа весь­ ма незначительно. Однако в близкой окрестности истин­ ного значения Ф сходится довольно быстро.

Вынуждаемые системы динамика числителя и ошиб­ ки измерений. Наше рассмотрение завершается синте­ зом алгоритмов для идентификации векторов а 'и Ь,

170

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . 5

характеризующих

уравнения движения системы

вида

 

х +

1) =

Тх (к) 4- Ги> (к) + dw. (к),

(5.3.52)

 

z (к) =

hTх (к) 4- v (к),

(5.3.53)

где d — произвольный, по известный iV-мерный вектор. Предполагается, что и (к) — это ненаблюдаемая последо­ вательность независимых случайных величин с нулевым средним, w (к) п v (к) — дискретные белые шумы с нуле­ вым средним и (к), w (к) и v (к) предполагаются взаимно независимыми. Отклик системы (5.3.52) имеет вид

х {к) = 2 Ф [Ги>i 1) 4- du (к — i 1)]. (5.3.54)

i=o

Определим 2Л^-мерные векторы

ЬТ Т 2ЛГ-1Г

 

hT Т3Г

,

S =

 

hT ТГ

 

 

 

_

ьт г

 

 

~u (k— 2N + 1)“

,

“ ( A=)

u — 1)

 

 

и (к)

 

 

~hT T

 

hTT2d

 

hTTd

(5.3.55)

hTd

~w(k — 2N+l)~

w(к) =

w (k — 1) w (k)

Очевидно, что 0 характеризует весовую функцию системы, и мы приходим к задаче, рассмотренной в разделе 2.2. Теперь можно записать наблюдение в виде

z (к) =

wT (к) 0 4- wT — 1) s 4- т (к),

(5.3.56)

где

 

 

 

оо

 

y(k) = v (к) -f- Ь1

2 Т1 i — 1) 4- du (к — i — 1)].

 

i=2JV

(5.3.57)

 

 

Определим оценку вектора параметров как вектор, мини­ мизирующий функционал

J = <$ {[z (к) — w1 (к) 0]2}.

(5.3.58)