Файл: Медич Д. Статистически оптимальные линейные оценки и управление.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 291

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

с нулевым средним {x(t), t^t0}, где х — «-вектор, a t0заданное начальное время. Очевидно, что случайный

процесс,

описываемый

уравнением

(7-1),

является

част­

ным случаем такого процесса.

 

 

 

 

На процесс измерения

здесь

накладываются

более

жесткие

ограничения,

чем

ранее.

Предполагается, что

{z(r),

x^to}

является гауссовский

непрерывным

случай­

ным процессом, описываемым соотношением

 

 

 

 

 

г(х)=Н(х)х(х)+ѵ(х).

 

 

 

(8-1)

В уравнении (8-1)

z — m-вектор;

Н(х)—непрерыв­

ная

матрица

размера

тХп;

{ѵ(х),

x^t0}

— гауссовский

белый шум

с нулевым

средним и матричной

корреля­

ционной функцией

вида

 

 

 

 

 

 

 

 

E[v(x)v'(a)]=R(x)6(x—o)

 

 

 

 

для

всех

x,

o^U,

где

R(x)

для всех x~^U — непрерыв­

ная положительно определенная матрица. Предполага­

ется, что

случайные

процессы {x(t),

t^t0}

и {v(t),

t~^U)

могут быть

коррелированными.

 

 

 

 

 

 

Как и

ранее,

обозначим

через

x{t^t)

оценку

состоя­

ния x(t^)

в

момент

времени

f,3-

t0,

сделанную на

основе

измерений

{z(x),

t0^x<zZt}

 

для

некоторого

t^t0.

Ошиб­

ка оценки

вновь

определяется

с

помощью

соотношения

 

 

 

* ( М 0 = * & ) -

*(',!*)•

 

 

Ограничимся критерием качества оценки вида сред-

неквадратической

ошибки

 

 

 

 

 

 

 

 

 

 

1[х{и\1)}

= Е[х'(к\1)х(1^)1

 

 

(8-2)

Далее потребуем, чтобы оптимальная оценка, т. е.

оценка, минимизирующая

J[x(ti\t)],

имела

вид

 

 

 

 

 

 

 

t

 

т ) г ( т ) ^ ,

 

 

 

 

 

 

=

!

Л (f„

 

(8-3)

где A(ti,

х)—матрица

 

размера

 

nXtn,

непрерывно диф­

ференцируемая по обоим своим аргументам.

 

Уравнение (8-3)

просто

означает,

что

оптимальная

оценка отыскивается в классе линейных оценок. Каче­ ственным обоснованием такого ограничения является

328


теорема 5-2, свойства оптимальных оценок на стр. 185, уравнение (5-12), полученное для оптимальных оце­ нок гауссовских процессов с дискретным временем и обсуждение результатов § 7-3 (стр. 291). Действительно, уравнение (8-3) является непрерывным аналогом урав­ нения (5-12). С его помощью оптимальную оценку мож­ но интерпретировать как выходной сигнал нестационар­ ной линейной системы с входным воздействием в виде

 

Нестационар­

>

)

ная л инвиная

 

I

система

 

Рис. 8-1. Представление оптимальной си­ стемы оценки в виде нестационарной ли­ нейной системы.

вектора

измерений.

Это показано схематически

на

рис.

8-1.

 

 

 

С другой стороны, можно ограничиться оценками ви­

да

(8-3)

в силу их

простоты. Предполагается, что

это

облегчит задачу оптимизации и позволит получить про­ стые и эффективные алгоритмы оценки. Такая точка зрения принята в классической теории управления, ког­ да заранее фиксируется структура системы управления, а ее параметры подбираются впоследствии с целью

оптимизации

соответствующего

набора

характеристик

качества.

 

 

 

 

 

 

Используя

более сложные

математические

методы,

чем применяемые в настоящей книге, можно

показать

[Л. 8-1, 8-2],

что

если процессы

{x(t),

t^tQ}

и {z(x),

гауссовские

с нулевыми

математическими ожида­

ниями, то оценка,

оптимальная

не только

для

критерия

качества вида среднеквадратической ошибки (8-2), но и для любого критерия качества вида

 

1[х(^)]

=

Е{Цх(и\Щ},

 

где L — допустимая функция

потерь, должна описывать­

ся уравнением

вида (8-3).

 

 

 

 

Впоследствии A (ti, х)

будет называться весовой

мат­

рицей, чтобы

подчеркнуть,

что она

определяет

связь

между входом системы z(x),

t0^.x^t,

и выходом

x(ti\t),

329



Постановка

задачи

 

 

 

 

 

 

По

известным

измерениям

{z(x), U^ix^Lt)

найти

оценку

состояния

 

 

вида

(8-3),

минимизирую­

щую среднеквадратическую

ошибку

(8-2).

 

 

 

Ясно, что задача

заключается

в определении

весовой

матрицы A(t\, х),

/о<:т<с;г.

 

 

 

 

 

Решение поставленной задачи оценки дается теоре­

мой 8-1. Эта теорема

доказана

 

Калманом

и

Бьюси

[Л. 8-1] с использованием понятия

 

ортогональных

проек­

ций в гильбертовом

пространстве.

 

Здесь

она

доказыва­

ется с использованием классических вариационных ме­ тодов.

Теорема дает необходимое и достаточное условие оптимальности оценки в виде матричного интегрального уравнения, называемого уравнением Винера — Хопфа.

Вследствие этого задача оценки сводится к задаче ре­ шения интегрального уравнения частного вида.

Теорема

8-1.

Для

того

чтобы

оценка

x(t\\t)

была

оптимальной,

 

необходимо

и

достаточно,

чтобы

весовая

матрица

A (О,

х)

удовлетворяла

уравнению

Винера

Хопфа

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

(т) z'

 

 

 

 

E

[x (Q

z'

(*)] -

{ Л ( М x)E[z

(s)] dx =

0

(8-4)

для всех

 

cr<c: t.

to

 

 

 

 

 

 

 

i o < ;

 

 

 

 

 

 

 

 

Д о к а з а т е л ь с т в о .

Согласно

определению

ошибки

оценки и уравнению (8-3)

имеем:

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

 

 

* (МО =

• * & ) - *

( М О = • * ( ' . ) -

f л * ^ >

-о 2(1)

 

где A*(t, т)произвольная весовая матрица. Отсюда следует, что корреляционная матрица ошибки имеет вид:

£ [ х ( М 0 * ' Ш = Я <

. * & ) -

т(т)<*т X

X ! • * & ) - \A*(tt,

IL

h\=Е[х'Ш-

o)z(?)ds

 

- Ç £ [ * ( О г ' ( ° ) М * ' ( ' . . 9)(Ь-

330


 

-jV(*„ x)E[z(x)x'(t1)]dx

+

 

to

 

t

t

 

Среднеквадратическая ошибка

представляет собой

след этой матрицы. Так как третье слагаемое в правой части уравнения (8-5) получено транспонированием вто­ рого слагаемого, след их суммы равен удвоенному следу второго слагаемого. Это означает, что среднеквадратическую ошибку можно представить в виде

^ ( M 0 ] = S p J £ [ * & ) * ' ( O l -

 

 

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

-

2

\E\x(t1)z'(i)}A*'(tl,

 

 

0

) d 3

+

 

 

 

+

{ A* (fl t

x) dx Ç E[[Z

(x) Z'

(a)] Л*' (fn

3 )

Л

.

(8-6)

 

 

to

 

h

 

 

 

 

 

 

 

J

 

 

 

Уравнение (8-6) представляет среднеквадратическую

ошибку в виде функционала от A (t, х).

 

 

 

 

 

Теперь предположим, что существует весовая матри­

ца

A(tit

х), для

которой

выражение

(8-6)

минимально.

Образуем другую весовую матрицу вида

 

 

 

 

 

 

 

Л* (г,, x)=A(t1,

x) +

eAt(tlt

 

x),

 

 

(8-7)

где

As(t^

x) произвольная

весовая

матрица,

а s — ска­

лярный параметр. Член eAt(tlt

 

х)

называется

вариацией

матрицы

A(tu

х).

 

 

 

 

 

 

 

 

 

 

 

Если уравнение (8-7)

подставить

в уравнение

(8-6),

то

среднеквадратическая

ошибка

становится

функцией

от

е при постоянном Ae(t,

х).

Далее,

если

A(t,

х)

—ве­

совая матрица,

минимизирующая

среднеквадратическую

ошибку,

то эта

ошибка

должна

быть

стационарной при

8 = 0. Иными

словами,

частная

производная от средне-

квадратической ошибки по е должна обращаться в нуль

при

е = 0. Такой подход приводит к необходимому

усло­

вию

оптимальности, накладываемому на A (ftи т).

Полу­

чив это условие, покажем, что оно также является до­

статочным.

331