Файл: Медич Д. Статистически оптимальные линейные оценки и управление.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 11.04.2024
Просмотров: 265
Скачиваний: 1
Кроме того, для любого k~0, |
1 . . . из определения |
||
w*(k) и уравнений |
(5-23), (5-24) |
можно |
получить соот |
ношение Е[х (010) да*' (k)]=E[x {0)w*'(k)] = 0. |
|||
Следовательно, |
случайный |
процесс, |
описываемый |
уравнением (5-65), имеет тот же вид и удовлетворяет тем же условиям, что и процесс, описываемый уравнением
(4-28) |
в § 4-2. Поэтому |
{x(k+l\k+l), |
fe = 0, 1, . .. } — |
|
гауссовская |
марковская |
последовательность. |
||
Так |
как |
{x(k+l\k+\), |
к = 0, 1 |
. . . } — гауссовская |
марковская последовательность, она полностью опреде
ляется своими математическим ожиданием E[x(k |
+ l\k + |
+ 1)] и корреляционной матрицей P(k+ 1 \k+ 1). |
Корре |
ляционная матрица определяется с помощью уравнения (5-51), а математическое ожидание равно нулю для всех
к, так |
как |
ж(0|0) |
и {w*(k), |
k = 0, |
1 . . . } имеют |
нулевые |
|||
математические ожидания. Теорема доказана. |
|
||||||||
Эта |
теорема |
впервые |
была |
доказана |
Калманом |
||||
[Л. 5-7] в 1960 г. Алгоритм |
рекуррентной |
фильтрации, |
|||||||
описываемый |
уравнениями |
(5-48) — (5-51), |
называется |
||||||
фильтром |
Калмана. |
|
|
|
|
|
|||
Вычислительные |
аспекты |
|
|
|
|||||
Одной |
из |
наиболее важных |
особенностей |
фильтра |
Калмана является его рекуррентная форма, что делает этот фильтр исключительно полезным для оптимальной фильтрации при обработке результатов измерения с по мощью ЭЦВМ. Измерения можно обрабатывать по мере их поступления и не требуется хранить какие-либо изме рительные данные в памяти. Из данных об измерении и состоянии системы при переходе от момента k к мо
менту k + \ нужно помнить |
только x(k\k). |
Однако алго |
||||||
ритм |
требует |
хранения в |
памяти |
матриц |
Ф(&+1, |
k), |
||
Y{k+\, |
k), H(k |
+ \ ) , |
Q(k) |
и R(k + \) |
для всех |
k = 0, |
1 .. . |
|
Информационное |
взаимодействие блоков |
фильтра |
легко понять, рассматривая структурную схему рис. 5-5, соответствующую уравнению (5-48) :
х(А + 1 | А + 1 ) = |
Ф(* + 1, k)x{k\k) |
+ |
||
+ Л' (k + 1) [г (k + 1) - |
H {k - f 1 ) Ф (k + 1, k) X (k I k)]. |
|||
Предположим, что |
оценка x(k\k) |
известна |
для неко |
|
торого k и требуется |
определить |
x(k-\-\\k-{-i) |
при из- |
207
вестном z(k+l). Общая схема вычислительного цикла имеет следующий вид.
1. Оценка x{k\k) «прогнозируется на шаг вперед» с помощью умножения ее слева на переходную матрицу
состояния |
Ф(&-|-1, |
k), что |
позволяет |
получить пред |
сказание |
x(k-\-\, k). |
Этот |
шаг можно |
рассматривать |
как динамическую экстраполяцию предыдущей оценки.
Н(к+1) |
|
х№ |
Ф(к+1,к) |
S3 |
|
г(к'+1\к) |
х(к+1\к) |
|
|
Рис. 5-5. Структурная |
схема |
фильтра Калмана. |
|
|||||
2.x(k-\-l, |
k) |
умножается |
слева |
на H{k-\-\), |
что |
||||
дает в результате |
предсказание |
измерения |
z (é-f-1 \ k). |
||||||
Вычитая |
его из истинного |
измерения |
z(k-\-V), |
получаем |
|||||
невязку |
измерения z(k-\-\ |
\k). |
|
|
|
|
|||
3. Невязка |
измерения |
умножается |
слева |
на |
матрицу |
||||
K(k-\-\) |
и результат |
складывается с х {k -f- Ч Щ для по |
|||||||
лучения |
X (k -f-11 k + |
1). |
|
|
|
|
|
4. X {k -f-1 \ k -f- 1 ^хранится в памяти до тех пор, пока не будет получено следующее измерение. После этого
цикл |
повторяется. |
|
|
|
|
|
|
|
|
|
Описанный здесь фильтр работает по методу |
«коррек |
|||||||||
ции |
предсказания», |
т. |
е. «корректирующий» |
член |
||||||
K{k + \)ï(k+\)f\k) |
складывается с предсказанием |
x(k + |
||||||||
- f l\k) |
для вычисления |
оценки |
x(k+\ |
\k +1). |
Корректи |
|||||
рующий |
член состоит из невязки измерения, |
взвешенной |
||||||||
с помощью матрицы K(k+l). |
Эту последнюю |
матрицу |
||||||||
обычно |
называют |
весовой |
матрицей, |
матрицей |
передачи |
|||||
фильтра |
или матрицей |
передачи |
Калмана. |
|
|
|
208
Теперь читателю должна быть понятна взаимозави симость предсказания и фильтрация. Одна из этих оце нок получается с использованием другой и наоборот:
x(kr+l |
|£) = |
Ф(£ + 1, k) |
x{k\k); |
||
x{k |
+ l\ k+\)=x{k |
+ |
l\k) |
+ |
|
-f- К (k -f- 1) [z {k + |
1) - |
Я (k + |
1) x |
(k + 1 I k)]. |
Алгоритм фильтрации начинает свою работу со зна чения ~х (О I 0) = 0, причем сразу получаем:
Î ( 1 | 1 ) = K(1)*(1).
Многократно повторяя описанный выше вычисли тельный цикл, состоящий из четырех шагов, последова тельно получаем оценки лг(212), JC (313) . . . Если требует ся предсказать состояние системы на несколько шагов вперед, например на m шагов, из теоремы 5-4 имеем:
x{k-\-m\k) = <S>(k + m, k)x{k\k).
В заключение заметим, что согласно рис. 5-5 опти мальный фильтр состоит из модели динамического про цесса, выполняющей функцию предсказания, и коррек тирующей цепи обратной связи, с помощью которой: в модель в качестве возмущения вводится слагаемое, со стоящее из взвешенной невязки измерения.
Теперь |
рассмотрим |
вычисление матрицы |
передачи |
|||
фильтра |
K{k+\) |
и двух корреляционных матриц P(k + |
||||
+ 1|&) |
и |
P(k |
+ l\.k+l). |
Напомним |
соответствующие |
|
уравнения |
(5-49) — (5-51): |
|
|
|||
|
|
K{k+\)=P{k+\\k)H'{k+\)X |
|
|
||
|
X{H(k+\)P(k+\\k)H'{k+\)+R(k+\)\-1; |
|
|
|||
Р ( * + 1 | £ ) = Ф ( А + 1 , k)P(k\k)0'(k+l, |
k) |
+ |
||||
|
|
+ Г ( £ + 1 , |
k)Q{k)T'{k+\, |
k); |
|
|
P{k+\\k |
+ \)=[I—K{k+\)H{k+\)}P{k |
+ |
\\k); |
|||
для 6 = 0, |
1 . . . при |
Р(0\0)=Е[х(0)х'(0)]. |
|
Типичный |
вычислительный |
цикл имеет |
следующую |
||||||
схему: |
|
|
P(k\k), |
Q(k), |
1 |
k) |
и V(k + |
||
1. По известным |
Ф(£ + 1, |
||||||||
+ \, k) |
с использованием уравнения |
(5-50) |
вычисляется |
||||||
матрица |
P(k +1 \k). |
|
' |
|
. |
|
|
||
2. |
Матрицы |
P(k+\\k), |
H(k+l) |
и R(k+l) |
подстав |
||||
ляются |
в уравнение (5-49) для |
получения |
матрицы |
||||||
К (k + l), |
которая используется |
описанным |
выше спосо |
||||||
бом на третьем шаге вычислительного цикла |
фильтра |
||||||||
ции. |
|
|
P{k+\\k), |
K{k+[) |
и H(k+\) |
|
|||
3. Матрицы |
подстав |
||||||||
ляются |
в уравнение |
(5-51) |
для |
получения |
матрицы |
||||
P(k+1 |
\è +1). |
Эта матрица |
хранится в памяти до тех |
пор, пока не будет получено следующее измерение. По сле этого цикл повторяется.
Обращение матрицы в уравнении (5-49) обычно не представляет проблемы. Обращаемая матрица имеет размер тХт, где m —число компонент вектора измере ния. В большинстве систем m поддерживается малым, чтобы избежать расходов на сложные измерительные приборы. Поэтому довольно часто встречаются системы с 12—15 переменными состояния, но всего лишь с 2—3
измеряемыми |
переменными. |
Уравнения |
(5-49) — (5-51) описывают алгоритм ре |
куррентного вычисления матрицы передачи оптимально го фильтра. Однако из следствия 5-2 и теоремы 5-5 из
вестно, что P(k+\\k) |
и P(k+\\k+\) |
— корреляционные |
|
матрицы гауссовских |
марковских |
процессов |
{x(k+\\k), |
k = Q, 1 . . . } и {x(k +1\<k+l), k = 0, |
1, .. .}, имеющих нуле |
вые математические ожидания. Следовательно, при вы числении матрицы передачи фильтра одновременно опре деляются параметры распределения вероятностей оши бок предсказания и фильтрации. Диагональные элементы
матриц P(k + l\k) |
и P(k+\\k+l) |
представляют |
собой |
соответственно |
дисперсии компонент векторов |
ошибки |
предсказания и ошибки фильтрации.
Для анализа качества фильтрации, очевидно, необя
зательно реализовать фильтр |
в полном составе. Для это |
го достаточно рассмотреть |
уравнения (5-49) — (5-51). |
Точнее, для изучения того, как изменяются во времени дисперсии ошибок, можно исследовать диагональные элементы двух корреляционных матриц. Так как фильтр
іявляется оптимальным для любой допустимой функции потерь, то эти дисперсии минимальны. Поэтому фильтр
210