Файл: Сейдж Э.П. Идентификация систем управления.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 152

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Г л а в а 5

ИДЕНТИФИКАЦИЯ С ИСПОЛЬЗОВАНИЕМ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ

5.1.ВВЕДЕНИЕ

Вэтой главе представлен обзор методов стохастиче­ ской аппроксимации и их применений к решению задачи

идентификации. Мы в основном дадим физическое и эври­ стическое толкование стохастической аппроксимации вме­ сто строгих доказательств, которые можно найти в цити­ руемой литературе. Первыми исследованиями в области стохастической аппроксимации были работы Роббинса и Монро [112], Кифера и Вольфовица [75], Дворецкого [33] и Блума [19], Сакрисоном [130] написан интересный ин­ женерный обзор методов стохастической аппроксимации.

Алгоритм Роббинса — Монро является стохастиче­ ским аналогом обычного градиентного метода для отыска­ ния единственного корня уравнения

h(x) = 0.

(5.1.1)

Этот алгоритм имеет вид

х г+1 = xi — ХЪ ( Х %

(5.1.2)

где К* — последовательность вещественных чисел, на которые наложены определенные требования, обеспечи­ вающие сходимость алгоритма.

Втом случае, когда измерения h (х) искажены помехой

сконечной дисперсией

z = h (х) -{- v,

(5.1.3)

где v — помеха с нулевым математическим ожиданием, говорят, что h (х) есть функция регрессии z на х, так как для независимых х и v

оо

$ {z | x }= ^ zp (z |х) d'L = h (x).

(5.1.4)

Теперь алгоритм (5.1.2) уже неприемлем, так как h (х)

5*

132

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . 5

ненаблюдаема. Однако условное математическое ожидание определяется выражением (5.1.4), и стохастический алго­ ритм для отыскания корней уравнения регрессии (5.1.4) имеет вид

xi+1 = X1 — К1ъ (х4).

(5.1.5)

Здесь обозначение z (х») преследует цель подчеркнуть ите­ ративный характер алгоритма. Последовательность {х1} с вероятностью единица сходится к решению уравнения (5.1.1). Исследования Роббинса и Монро показали, что эта сходимость имеет место при выполнении трех условий:

 

ОО

ос

lim К 1— 0,

2 if* = оо,

2 ( К у < с * . (5.1.6)

4-°°

t=i

i=i

Таким требованиям удовлетворяет, например, простей­ шая последовательность

Ki = J T T -

(5Л'7>

Требуется также, чтобы функция регрессии h (х) по обе стороны от истинного решения была ограничена прямыми с конечным наклоном, для того чтобы не «проскочить» решение х. Таким образом, в одномерном случае

|h (х) |^ а |х — х | -f Ь (а, b 0).

(5.1.8)

Последнее ограничение не является слишком суровым.

Физическое

толкование

условий

(5.1.6) будет

дано

в следующем

разделе, в

котором

рассматривается

ди­

намический вариант метода стохастической аппрок­ симации.

Кифер и Вольфовиц обобщили метод стохастической аппроксимации на отыскание экстремума унимодальной функции регрессии 0 (и).

Этот алгоритм представляет собой точный аналог детер­ минированной градиентной процедуры, которая, как из­

вестно, использует алгоритм

 

 

ui+1 = ul- K

i dQ (u4)

(5.1.9)

 

in1

 


5.1]

ВВЕД ЕН И Е

133

При наличии помех

наблюдается

 

 

I = 0 (u) + I.

(5.1.10)

И детерминистский алгоритм (5.1.9) заменяется стоха­ стическим алгоритмом

Ц<+1 = и* - Ю dl {- Х .

(5.1.11)

du1

 

Условное математическое ожидание, взятое от обеих частей (5.1.11), приводит к алгоритму (5.1.9). В некото­ рых случаях прямое дифференцирование с целью полу­ чить dl (и*)/йш невозможно и используется приближе­ ние вида

 

dl (и1)

__ I (иг + Аиг) — I (иг — Аиг)

(5.1.12)

 

du*

~

 

 

2Ли*

 

 

 

 

 

 

Так что алгоритм

Кифера — Вольфовица

записывается

в форме

 

 

 

 

 

 

 

Ui+i =

 

L

*(ц* +

Aui) ~

\(ц* .- Aui)- 1. (5.1.13)

 

 

 

 

2Диг

J

В этом случае условия сходимости имеют вид

Urn К 1= 0,

lim Аи’ = 0,

 

 

 

 

3 ( ^ ) * < о о ,

 

к 1

(5.1.14)

2 К 1= ос,

2

 

<

 

1=1

г=1

 

 

 

 

Ди\

 

Имеется также ограничение типа (5.1.8).

 

Основная

идея

 

стохастической

аппроксимации состо­

ит в том, что для любого алгоритма детерминированного типа существует его стохастический двойник. Следуя этой идее, Дворецкий [33] сформулировал обобщенный метод стохастической аппроксимации, который состоит в использовании аддитивной смеси детерминированного ал­ горитма 25 и случайной компоненты п

ati+1 = 25 (я1, ж2, . . . , х 1) + п1.

(5.1.15)

Можно показать, что алгоритмы Роббинса — Монро и Кифера — Вольфовица являются частными случаями алго­ ритма Дворецкого.


134

СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ

[ГЛ . 5

Существуют различные способы увеличения скорости сходимости алгоритмов стохастической аппроксимации, ко­ торые, как мы видим, весьма близки к развитым в преды­ дущей главе градиентным методам. Быть может, проще всего поддерживать К1 постоянным до изменения знака наблюдаемой величины (z (хг) или I (и1)), изменяя затем К1 так, чтобы удовлетворить вышеупомянутым ограни­ чениям. Эту схему можно оправдать тем, что вдали от нуля функций h(x) или dQ(u)!du наиболее вероятны наблю­ дения одного знака, тогда как в близкой окрестности нуля знак наблюдений будет часто меняться.

Этот метод сводится к использованию

xi+1 = х1— К4 sign [z (х4)]

(5.1.16)

или

 

u i+l = u i К1sign dl (иг) '

(5.1.17)

du1

 

Такой подход значительно ускоряет сходимость для та­ ких функций регрессии, которые на бесконечности быстро стремятся к нулю, например, как h (х) = х ехр (— х).

Дворецкий [33] доказал, что если

var {z (х) |х} < Vv < оо

и если функция регрессии h (х) = Щ{z (х)| х} ограничена,

0<^Л|х — x|<(/&(x)-s^Z?|x — х|<^оо,

(5.1.18)

и, кроме того,

 

 

 

 

|х* — х К С =

2з2

V/.

(5.1.19)

А (В А) )

 

 

 

то последовательность

 

АС2

 

 

Ю =

 

 

(5.1.20)

Vv + iA*C*

 

 

 

 

достигает верхней грани

 

 

 

 

var {(х4 - £)»> < y vT { f

i) AiC, .

(5.1.21)

Кроме близости к градиентным методам, существует

тесная связь между стохастической аппроксимацией и


6.1]

ВВ ЕД Е Н И Е

135

теорией оптимальной фильтрации. Например, хорошо известно, что решение задачи об отыскании наилучшей линейной оценки х при заданном наблюдении

z (ft) = Нх -ф- v (ft),

(5.1.22)

где v (ft) — белый шум с нулевым математическим ожи­ данием и единичной матрицей ковариации, дается фор­ мулой

i + 1) = X {к) + V - + 1) Нт [z + 1) — Нх {к)] =

= £ (ft) + V - (к) Нт [НУ? (к) Нт +

I]-1 [Z +

1) - Нх (к)],

где

 

 

 

(5.1.23)

 

 

 

 

V - + 1) =

V~ (к) -

V - (к) Нт [Н V - (ft) Нт +

I p H V - (к)

или

 

 

 

(5.1.24)

 

 

 

 

V - +

1) Нт =

V - (к) Нт [H V - (к) Нт +

1Г1. (5.1.25)

Повторное использование (5.1.25)

сразу же приводит

к соотношению

 

 

 

V ? (к) Нт = V~ (0) Нт [ftHV - (0) Нт + 1]-\

так что при к-^-оо

V-г (/с)Нт ^ 4 V* (°)нТ tHVx (°) н1]'1. (5.1.26)

Как и ожидалось, при оценке константы дисперсия ошиб­ ки стремится к нулю. Таким образом, для больших к алго­ ритм фильтрации (5.1.23) имеет следующий асимптотиче­ ский вид:

x(ft + l) =

= х (ft) + T q rr v * (°) rT lH V x (0) HT1 - [z (к + 1) - H i (ft)].

(5.1.27)

Видно, что уравнение (5.1.27) является многомерным алгоритмом стохастической аппроксимации. Если пред­ положить, что Н — квадратная невырожденная матрица,