ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 27.06.2024
Просмотров: 158
Скачиваний: 0
3.4] |
КРИТЕРИЙ МАКСИМУМА ПРАВДОПОДОБИЯ |
97 |
|
||
|
|
|
|
|
|
Т а б л и ц а |
3.4.2 |
Алгоритмы |
первого порядка идентификации |
|
|||
но |
максимуму правдоподобия |
|
|||
(коррелированные шумы объекта и наблюдений) |
|
||||
Уравнение фильтра условного среднего |
|
|
|||
х (А + 1, 0) = х (к + 11к, 0) -{- К (к + 1) {z (А + 1) |
|
||||
— h [ х (А: + 1 |к, 0), А + |
1]} |
|
|
||
Уравнение одношаговой экстраполяции |
|
|
|
||
i (к + 1 |к, |
0) = <р [2 {к |0), |
к) + |
Кр (к) {г {к) ■ |
|
|
|
— h [х (к \к — 1, |
0), А]} |
|
|
|
Уравнение для коэффициента усиления фильтра |
|
||||
К (к + 1) = |
|
|
|
|
|
= V - (* + 1 |Л, 0) |
9hT[J (А 4-1 I*. 0). k + i] |
х . |
|
||
дх (к -J- 1 |А, 0) |
|
v ( * + i i fc- 0> |
|||
Уравнение для априорной дисперсии ошибки идентификации |
|||||
дер [х (А |0), А] |
|
д(рт [х(А|0), |
А] |
||
V ; (А+1 [А, 0) = |
дх (к I 0) |
V=(A) |
д х (А |0) |
+ |
|
|
|
|
|
||
+ Г [х (А |0), к] Vw (А) Гт [х (А |0), |
А ] - |
|
-K P (A)VZ- 1(A|A-1, 0)Кр (А) —
^'|й> ~ к (*)v»» (t>гТI»(* I е>’ *1 -
ОХ (А |И)
д<рт [х (А |0), А]
— Гт [х (А|0), A] Vwv (А) Кт (А)
Эх (А |0)
Уравнение для дисперсии ошибки фильтрации
V£(A + 1|0) =
dhf [х (A -f 1 |А, 0), А + |
1]1Т |
= 1 - К ( А + 1) |
Vx (к + 1 |А, 0) |
дх(к + 1 1к, 0) |
|
Уравнение для коэффициента усиления одношаговои экстра поляции
Кр (А) = Г [х (А |0), к] Vwv (А) V"1 (А + 1 |А, 0)
4 Э. П. Сейдж, Дж. Л. Мелса
98 ФУНКЦИИ Ш ТРАФ А В ЗА Д А Ч А Х ИДЕНТИФИКАЦИИ [ГЛ . 3
Т а б л и ц а 3.4.2 (продолжение)
Штрафная функция идентификации по максимуму правдо подобия
1 |
2 111 det Vz (А I А - |
1, 0) + |
|
|
|
||
J = — |
|
|
|
||||
|
ii—ki |
|
|
|
|
|
|
|
-j-||z(A') |
h [ х (А |А |
1, 0, Л] ||у-1 q.j |
| |
|
||
|
|
|
|
|
, 0)’ |
|
|
(А: I * — 1, 0) = |
Vv (A) + |
dhT [х (А |А — 1, |
0), А] |
X |
|||
ах (л1ft — 1, |
0) |
||||||
|
|
|
|
||||
|
|
ЭЬт [х (А |А— 1, |
0), |
А] |
|
||
х V - (А' | /с — 1 , 0 ) |
дх (А |А — 1, |
0) |
|
|
|||
|
|
|
|
|
|||
Начальные условия фильтрации |
|
|
|
||||
|
х (0 10, 0) = рХо, V - (0|0, 0) = |
VXo |
|
Остальные алгоритмы первого порядка фильтрации ус ловного математического ожидания нуждаются в анало гичных изменениях. Эти изменения вносятся без труда, и получающиеся в результате приближенные алгоритмы сведены в табл. 3.4.2.
Пример 3.4.2. Вернемся к примеру 3.4.1, предполагая, что теперь имеется второе наблюдение, определяемое уравнением
z2 (к) = w (к) + va (к),
причем шумы объекта и наблюдений коррелированы, так что
z(k ) |
Гг (A) I |
Гх (А) + |
v (А) |
|
Lz 2 ( f t ) J |
(А) + V i (А)]■ |
|||
|
||||
h[*(fc). *1 |
= [*оА)] * |
|
[w (ft)+i»(A)]’ |
|
|
|
|
||
= |
[0F№], Vv = Г » |
0 ■ |
L°
Применение алгоритмов из табл. 3.4.2 немедленно при водит к следующей функции штрафа и ограничениям
3.4] |
КРИТЕРИЙ МАКСИМУМА ПРАВДОПОДОБИЯ |
99 |
|
в |
форме |
равенств |
|
/ |
= 4 - 2 |
{in det [F0 ф- F~ (/с |/с — 1, Ф) + |
|
f* (А) — * (* I А — 1, Ф)]* ] + Р, + Р~(А |Л -1, Ф)
х (к + 1 1к, Ф) = Ф х (к |к — 1, Ф) + |
z2(k) + |
фУ~(к\к— 1, Ф)
+ 7: ( ф - 1 , Ф ) + Т , [z( * ) - * ( * ! * - ! , Ф)],
|
ф2V Г~ (А: |А — 1, Ф) |
| т ; |
V2 |
|
V~(k + i\k, Ф) |
^ х |
w |
||
7 - ( А | А - 1 , Ф ) + Г„ |
+ |
Vv ,+ Vv. ' |
||
|
На рис. 3.4.5 показана зависимость функции штрафа J от Ф для ряда значений VV2. Очевидно, что при Ни -> оо
Рис. 3.4.5. Зависимость функции штрафа от Ф при двух разных значениях Рг2; пример 3.4.2. (VvlIVW = 1, х0 = 0, к( = 800).
наблюдение z2 (к) становится бесполезным, и алгоритмы этого примера вырождаются в соответствующие алгоритмы примера 3.4.1.
4*
100 ФУНКЦИИ Ш ТРАФА В ЗАД АЧ АХ ИДЕНТИФИКАЦИИ [ГЛ . 3
3.5.ВЫВОДЫ
Вэтой главе были сформулированы и изучены функ ции штрафа для задач идентификации дискретных систем по критериям максимума апостериорной вероятности и максимума правдоподобия. Для нескольких примеров был осуществлен вывод ДТКЗ идентификации и переход к непрерывному случаю. Теперь мы обратимся к вычис лительным методам определения состояния и параметров в задачах идентификации.
Г л а в а 4
ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАЦИИ
4.1. ВВЕДЕНИЕ
Рассмотрим теперь вычислительные методы иденти фикации. В этой главе будет исследован один класс пря мых методов, известных под названием градиентных. Эти методы получили название прямых из-за того, что при их использовании на каждом шаге минимизируется функ ция штрафа, тогда как в косвенных методах таких, как квазилинеаризация (см. главу 6), предпринимается по пытка решения двухточечной краевой задачи, появление которой связано с тем, что на каждой итерации исполь зуются принципы теории оптимального управления.
Сначала будут рассмотрены статические или одно шаговые задачи с последующим переходом к изучению многошаговых и непрерывных ситуаций. В дополнение к основному градиентному методу или градиентному мето ду первого порядка рассматривается также разложение нелинейностей до членов второго порядка малости, по зволяющее строить градиентные методы второго порядка или методы вторых вариаций, которые обладают преиму ществом более быстрой сходимости. В заключение будет изучен метод сопряженного градиента, в котором опреде ляются сопряженные направления поиска, и в результате, за т шагов минимизируется положительно определенная квадратичная форма т переменных. Этот метод сочетает многие преимущества градиентных методов первого и второго порядков.
Применение градиентных методов демонстрируется на примере идентификации нескольких систем. Наиболее
доступное изложение градиентных методов |
можно,найти |
в книгах Сейджа [116] и Брайсона и Хо [24]. В этих кни |
|
гах градиентные методы применяются в |
основном для |
решения задач оптимального управления. Беки и Карплюс [12] пользуются градиентными методами первого
102 |
ГРАДИЕНТНЫ Е МЕТОДЫ ИДЕНТИФИКАЦИИ |
[ГЛ. 4 |
порядка в гибридных вычислениях. Градиентным методам посвящено много журнальных статей, однако большин ство из них связано с решением задач теории оптималь ного управления, а не идентификации. Многие из этих статей включены в библиографию.
4.2. ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАЦИИ СТАТИЧЕСКИХ СИСТЕМ
Вот уже много лет известен способ решения экстре мальных задач, основанный на применении классического градиентного метода или метода наискорейшего спуска. Принципиально задача состоит в отыскании экстремума скалярной функции М-вектора:
/ = 0 (и). |
(4.2.1) |
Как известно из дифференциального исчисления, в экс тремальной точке должны выполняться следующие необ ходимые условия:
|
<П_ |
d9 (u) |
|
(4.2.2) |
|
du u=u |
du |
u=u |
|
Вектор dJ/du |
часто |
называют градиентом, |
а условие |
|
dQ (u)/du = 0 |
определяет систему |
M нелинейных урав |
нений, которая может быть достаточно сложна, чтобы из нее можно было найти оптимальный вектор и. Если это так, то можно воспользоваться итеративным методом, ос нованным на разложении 0 (и) в ряд Тейлора в окрест ности какого-то значения и\
Имеем
/ = 0(и) = 0 (и*) + |
] 1 (и — и*) |
|
|
||
L |
o il J |
|
|
|
|
|
т d28 (и1) |
|
|
||
+ -ня- (и — и1) |
(du1)2 |
(ц — и{) + |
(4.2.3) |
||
Ограничившись линейными членами разложения, по |
|||||
лучим |
|
d0 (и1) |
|
||
/ = 0 (и) ж 0 (iT) + |
(4.2.4) |
||||
du1 |
U{). |
||||
|
|
|
|
4.2] МЕТОДЫ ИДЕНТИФИКАЦИИ СТАТИ ЧЕСКИ Х СИСТЕМ ЮЗ
Теперь допустим, что значение |
функции J при |
и = и1 |
|||
известно п вычислим |
|
|
|
|
|
А /4 = 0 (и) — 0 (и4) : |
dQ(и4) И |
Ди\ |
(4.2.5) |
||
rfu4 J |
|||||
где |
|
|
|
||
|
|
|
|
||
АГ = / — |
Аи4 = и — и4. |
(4.2.6) |
Хочется выбрать Аш таким, чтобы А7* было как можно меньше нуля, обеспечивая тем самым наискорейший спуск в направлении минимума J. Из уравнения (4.2.5) ясно, что для минимизации AJ* при условии (ДшуДДи1 *= а необходимо
Аи4= - К |
(4.2.7) |
где К 1 — положительное число, являющееся, быть может, функцией номера итерации i; это число выбирается из соображений обеспечения сходимости, скорости сходи мости и т. п. Оптимальный вектор Q определяется путем прямых вычислений. Используется какое-то приближение
и* и вычисляется d Q (u{)/du4. Аи» |
определяется из (4.2.7), |
||
а для ui+1 имеем |
|
|
|
ui+1 = u4 + Au4 = u1- |
Ю |
. |
(4.2.8) |
|
|
dvr |
|
Вычисления продолжаются до тех пор, пока заметны су щественные изменения и от итерации к итерации. Однако в сходимости процедуры нельзя быть уверенным, если не ограничить выбор К1. Это утверждение иллюстрируется простым примером.
Пример 4.2.1 Необходимо решить систему линейных алгебраических уравнений Аи = Ь относительно и. Ясно, что и = А_1Ь, однако реализация этой формулы в случае системы высокого порядка может привести к сложной вычислительной процедуре. Известно, что неотрицатель ная функция штрафа
1 1