ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 27.06.2024
Просмотров: 148
Скачиваний: 0
5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 165
Так как ^ — симметрическая матрица (см. (5.3.6)), то вид но, что (5.3.11) можно упростить, а именно:
а (27V) = - W (27V - 1 )Г у (27V), |
(5.3.32) |
где обозначение а (2 7V) используется для того, чтобы под черкнуть, что для оценки а использовано 27V измерений. При выводе схемы последовательной идентификации форма записи (5.3.32) не используется *). Определим
S5 (27V) = [^ Т(2N — 1)У- (2N - l)]-i. (5.3.33)
Добавим еще одно измерение у (2 N + 1) и минимизируем новое выражение функции штрафа. Легко получить, что
a (2N + |
1) = |
$ (27V + |
1) [у (21V) j |
(2N + 1)] [у ^ |
J , |
|
|
|
|
|
|
y(27V + l)J |
|
где |
|
|
|
|
|
(5.3.34) |
|
j [ ^ T (27V -l)iy(27V )] -i 'У (2N - |
1 П р _ |
||||
£P(2N + |
1) = |
|||||
|
|
|
|
ут (2/V) |
J) |
|
|
|
= |
[3s (27V) + |
у (27V) yT(27V)]-1. |
(5.3.35) |
Для того чтобы преобразовать это выражение к виду, более удобному для вычислений, воспользуемся леммой обраще ния матриц. В результате получим
3b(2N + l) =
= (27V) — & (2N) у (27V) [ут (2N) (27V) у (27V) + 1 Г 1 х
X yT(27V)5a(27V), (5.3.36)
где требуется вычисление обратной скалярной величины. Теперь нетрудно получить, что
a (27V + 1) = a (27V) —
— .3* (27V) у (27V) [ут (27V) .З5 (27V) у (27V) + 1 Г 1 х
X [y(27V + l) + yT(27V)a(27V)]. (5.3.37)
*) Болое систематическое изложение последовательной иден тификации с использованием инвариантного погружения приво дится в главе 7.
166 |
СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ |
[ГЛ . .5 |
|
Можно |
повторить эту |
процедуру для 2N + 2, |
2N + |
4- 3, ... |
, откуда видно, |
что (5.3.37) можно переписать, |
|
заменив |
2N на к. Мы видим, что алгоритм стохастической |
аппроксимации (5.3.27) эквивалентен алгоритму метода
наименьших |
квадратов |
(5.3.37), |
если |
|
К{к) = |
& (2к) |
|
|
|
(5.3.38) |
|
|
|
1 + УТ(к) & (к) у (к) |
|
В разделе 5.1 |
показано, |
что 5s (к) |
ведет себя как 1 /к, и, |
таким образом, мы заключаем, что метод наименьших квадратов и метод стохастической аппроксимации ведут к сходным результатам.
Выше предполагалось, что уравнения (5.3.36) и (5.3.37) выписываются, когда уже выполнено 2N наблюдений. Это необходимо для того, чтобы записать начальные условия
а (2N) = - |
(2N - 1)]~1у (2N), 3* (2N) = [^ (2N - I)]'2. |
|
(5.3.39) |
Во многих практических ситуациях выбор начальных а и SP в вычислительной процедуре может быть достаточно произволен.
Вынуждаемые системы — отсутствие динамики в чис лителе — ошибки измерений. Алгоритмы идентификации по методу стохастической аппроксимации при наличии ошибок измерений существенно усложняются. Рассмотрим систему вида
Г 0 ! I |
х (к) + |
w (к), |
x(fc + l) |
||
У(к) = 11 0. . . 0] х (к), |
(5.3.40) |
|
|
||
z{k) = у (к) 4 |
v (к), |
|
где v (к) — дискретный белый шум с нулевым средним, а z (к) — наблюдения. Можно записать одномерное разност ное уравнение:
z (к) -j- axz (к — |
1) |
4- a2z (к — 2) |
4- |
••• + |
&nz (к — N) = |
= b±w (к — 1) 4- |
Ь2и> (к — 2) 4- ••• + |
bNw (к — N) 4- |
|||
4- v (к) 4- |
apv (ft - 1) 4- ... |
4- |
aNv (к - N), (5.3.41) |
5.3] ИСПОЛЬЗОВАНИЙ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 167
которое можно |
переписать в виде |
||
z (к) = - zT(к - 1) а + |
w\k - 1) + |
||
где |
£ |
|
|
1 |
|
|
|
z (fc — 1) = |
|
, |
v (A — 1) = |
z (к — 2) |
|
|
ут (к - 1) а, (5.3.42)
~v {к — N) '
v (к —2)
_ v (к— 1) _
К несчастью, уравнение (5.3.42) гораздо сложнее уравне ния (5.3.26) в силу коррелированности последовательности помех vT (к — 1) а. Таким образом,
'{(к— 1) = w(k — 1) + vT(A:— 1)а |
(5.3.44) |
уже не является белым шумом, так как
cov{у(к— 1), у(/ — 1)} Ф 0, |
если |
\k — j\ ^ N |
и |
|
|
cov{у(к— 1), у(/ — 1)} = 0, |
если |
|&— /|>7V. |
Следовательно, нужно быть осторожным, минимизируя
/= : Ш{у2(&-1)}, |
(5.3.45) |
у (к— 1) = z(к) -f zT (к— 1)а. |
(5.3.46) |
Можно попробовать использовать алгоритмы стохастичес кой аппроксимации, так ограничив выбор к, что к = О,
2 N -\- 2 и т. д., и тогда
cov {у {к — 1), у (/ — 1)} = о, Iк — j I = (N + 1) t,
* = 1,2, ...
Минимизация (5.3.45) приводит, конечно, к тем же ре зультатам, что и минимизация (5.3.28). Ошибки измерений по существу игнорируются. Мы получаем
а*= — [ff{z(fc — l)z*(A — i)}\~4 {z(k — 1) z (A)}. (5.3.47)
Подстановка |
(5.3.42) дает |
a* |
= a — IS {z (к— 1) zT(£ - 1)}Г1Т^„а, (5.3.48) |
и мы видим, что минимизация (5.3.45) с необходимостью приводит к смещенным результатам. Если в алгоритме
168 |
СТ0ХАСТИЧЕСКАЯ 1АШ 1 РОКСИМАЦИЯ |
£ГЛ . 5 |
стохастической аппроксимации вычесть смещение, обус ловленное использованием (5.3.45),'i то будут получены несмещенные оценки. Для получения осмысленных алго ритмов стохастической аппроксимации по-прежнему не обходимо при итерировании оценок а пользоваться реа лизациями помехи, разнесенными на N + 1 временной такт. Таким образом, алгоритм стохастической аппрокси мации имеет вид
а (Л + N + 1) - а (А) — К (k/N + 1) X
X {z (к + TV) [z (к + N + 1) + zT(£ + TV) a (A)] - F„a (A)},
(5.3.49)
где к = О, N -|- 1, 2N -j- 2, ... Можно легко проверить, что этот алгоритм дает несмещенную оценку.
Коэффициент К (k/N -ф- 1) выбирается, чтобы удовлет ворить обычным для метода стохастической аппроксима ции ограничениям. Отметим, что по постановке задачи не обходимо знание дисперсии ошибок измерений, но не дис персии входного шума системы. По аналогии с (5.3.38) можно получить, что подходящее, близкое к оптимально му, значение К определится как
К |
_________ &> (к + |
N + 1)__________ |
(5.3.50) |
|
1 + zT (к + N) |
(к) ъ (к + /V) ’ |
|||
|
|
где
SP (к -f- N + 1) = SP (к) — 5s (к) г (к -f N) х
X [zT(A -ф- N) (к) z(k -ф- ./V) -ф- l]-1zT(A -f N) 3й (к). (5.3.51)
Начальные условия для а и SP не критичны и могут быть выбраны, как и в предыдущем разделе.
Пример 5.3.1. Рассматривается простейший пример идентификации Ф в случае одномерной системы
х (к -ф- 1) = Фа: (к) -ф- w (к),
у (к) = х (к),
z (к) — х (к) -ф- v (к),
где w (к) и v (к) — дискретные белые шумы с нулевым средним. Система первого порядка, поэтому N = 1. В этом случае алгоритм стохастической аппроксимации (5.3.49) —
5.3] ИСПОЛЬЗОВАНИЕ СТОХАСТИЧЕСКОЙ АППРОКСИМАЦИИ 169
5.3.51) имеет вид
Ф (к + 2) = Ф (к) + К {к!2) {г (к + 1) [z (к + 2 ) -
где |
- |
z ( k + i |
) 0 ( k ) V] v<S>(k)),+ |
|
& (А + 2) |
|
0>(к)1 |
||
К (к/2) = |
з5 (/С + 2) = |
|||
1 + z2 (А + 1) (А) ’ |
1 + z* (А + 1) £ Р ( к ) |
для А = 0, 2, 4, 6, ... На рис. 5.3.1 и 5.3.2 показано, как сходятся алгоритмы в случае, когда входной сигнал и ошибки измерений гауссовские. Во всех случаях истинное
|
|
Итерации |
Рис. 5.3.1. Последовательная |
Рис. |
5.3.2. Последователь |
идентификация Ф,; пример |
ная |
идентификация Ф2; |
5.3.1. |
|
пример 5.3.1. |
значение Ф = 0,8. Начальное приближение Ф = 0, дис персия помехи 0,25 и 1,0. Начальное поведение кривых су щественно зависит от выбора & (0). После нескольких итераций (обычно 3—5) результаты перестают зависеть от начального выбора & (0). Интересно отметить, что да же после 1000 итераций уменьшение функции штрафа весь ма незначительно. Однако в близкой окрестности истин ного значения Ф сходится довольно быстро.
Вынуждаемые системы — динамика числителя и ошиб ки измерений. Наше рассмотрение завершается синте зом алгоритмов для идентификации векторов а 'и Ь,
170 |
СТОХАСТИЧЕСКАЯ АППРОКСИМАЦИЯ |
[ГЛ . 5 |
||
характеризующих |
уравнения движения системы |
вида |
||
|
х (к + |
1) = |
Тх (к) 4- Ги> (к) + dw. (к), |
(5.3.52) |
|
z (к) = |
hTх (к) 4- v (к), |
(5.3.53) |
где d — произвольный, по известный iV-мерный вектор. Предполагается, что и (к) — это ненаблюдаемая последо вательность независимых случайных величин с нулевым средним, w (к) п v (к) — дискретные белые шумы с нуле вым средним и (к), w (к) и v (к) предполагаются взаимно независимыми. Отклик системы (5.3.52) имеет вид
х {к) = 2 Ф [Ги>(к — i — 1) 4- du (к — i — 1)]. (5.3.54)
i=o
Определим 2Л^-мерные векторы
ЬТ Т 2ЛГ-1Г
|
hT Т3Г |
, |
S = |
|
hT ТГ |
||
|
|
|
|
_ |
ьт г |
|
|
~u (k— 2N + 1)“ |
, |
||
“ ( A=) |
u (к — 1) |
|
|
|
и (к) |
|
|
~hT T |
|
hTT2d |
|
hTTd |
(5.3.55) |
hTd |
~w(k — 2N+l)~
w(к) =
w (k — 1) w (k)
Очевидно, что 0 характеризует весовую функцию системы, и мы приходим к задаче, рассмотренной в разделе 2.2. Теперь можно записать наблюдение в виде
z (к) = |
wT (к) 0 4- wT (к — 1) s 4- т (к), |
(5.3.56) |
где |
|
|
|
оо |
|
y(k) = v (к) -f- Ь1 |
2 Т1 (к — i — 1) 4- du (к — i — 1)]. |
|
|
i=2JV |
(5.3.57) |
|
|
Определим оценку вектора параметров как вектор, мини мизирующий функционал
J = <$ {[z (к) — w1 (к) 0]2}. |
(5.3.58) |