Файл: Медич Д. Статистически оптимальные линейные оценки и управление.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 251

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

входное воздействие w(k), k = 0, 1, . . . является некото­ рой выборочной функцией гауссовской белой последо­

вательности {w{k), fe = 0,

1, . . . } , а вектор начальных

условий х(0)—некоторая

выборка из множества векто­

ров начальных условий, распределенных по гауссовско-

му закону. Эта модель имеет вид, аналогичный

модели

из §

2-3, за исключением того,

что х(0) и

w(k)

теперь

имеют конкретное вероятностное

описание.

 

 

 

Г(к+1,к)

 

 

х('к+1)

w(k)

 

 

 

 

 

х(к)

S3

 

 

Ф(М,к)

 

Рис. 4-4. Модель динамики дискретной линейной системы.

 

Очевидно, {х(k), k<=I} является случайным

процес­

сом. Докажем, что он представляет собой гауссовскую марковскую последовательность, и дадим два способа

описания

процесса.

 

 

 

 

 

 

 

Вначале покажем, что этот процесс

марковский.

Пусть

4 < 4 < . - . < ^ т

любые

m моментов

времени

из /,

'

*/

h

 

U

tm-,

 

tm

 

lt\

- I — I

1

L _ .

. . . M i l

. . .

_ |

i _ L . . .

J

I

 

0 I

2

3

j

• . •

к

,к+1 •••

/

Рис. 4-5. Множество индексов / и произвольное множество упорядо­ ченных моментов времени {t{-.i=l m; ^ < / 2 < • • • <tm}.

где m — произвольное целое число. Кроме

того, пусть k

и у целые числа из /, соответствующие

моментам вре­

мени tm и Гт_і. Эту ситуацию можно проиллюстрировать

на рис. 4-5, откуда видно, что, вообще

говоря, в / могуг

быть точки, лежащие между моментами времени UK

<t2<.--<tm,

а также

вне интервала

времени, ограни­

ченного этими

точками.

 

 

 

Из уравнения (4-28)

ясно,что

 

 

х ( / + 1 ) = Ф ( / + 1 , / ) * ( / ) + П / + 1 ,

j)w(j);

* ( / + 2 ) = Ф ( / + 2, / + 1 ) * ( / + 1 ) + Г ( / + 2,

 


Подставляя первое выражение во Второе и группи­ руя члены, получаем:

*(/ +

2) = Ф(/ + 2,

/ +

1)[Ф(/ + 1,

j)x(j)

 

+

 

+ Г(/+1,

/)ш(/)] +

Г(/ +

2,

/ +

1)ш(/+1)=*

 

*=Ф(/4-2,

/)х(/) +

Ф(/ +

2,

/+1)Г(/ + 1,

j)w(j)

+

+ Г(/ +

2, /+1)о,(/+1) =

Ф(/ +

2, j)x{j)

+

 

 

І + 2

Ф(/ + 2, О Г (/,

 

 

 

1),

 

 

 

+

S

 

t -

 

 

 

 

 

і = / + і

 

 

 

 

 

 

 

 

 

 

 

 

где

 

 

2, / ) Д Ф ( / +

2, /+1)Ф(/ + 1,

/).

 

Ф(/ +

 

Продолжая

преобразования

аналогичным

образом,

получаем общее соотношение

 

 

 

 

 

 

 

 

хЦ

+ п) =

Ф(] + п, /)•*(/)

+

 

 

 

 

j + n

 

 

 

 

 

 

 

 

 

 

 

 

+

S

 

Ф 0 4 - ». Ог

0>

і -

1 ) о» (і -

 

I ),

(4-29)

где п = 1, 2,

. . . , причем

 

 

j + n— 1)І....Ф(/+1, t)

 

Ф(} + п,

i)=<b(j

+ n,

 

для і = /, / +

 

. . . , / + «.

 

 

 

 

 

 

 

 

 

 

Для j + n=,k очевидно, что

 

 

 

 

 

 

 

 

 

 

я ( £ ) = Ф ( £ ,

 

+

 

 

 

 

 

+

 

2

Ф(£, 0 ГО', «— 1)а»(*-—

 

 

(4-30)

 

/ = /

+ і

 

 

 

 

 

 

 

 

 

 

 

Вспоминая,

что k соответствует tm,

а / — tm-i,

из

уравнения (4-30) получаем, что условная функция рас­

пределения вероятностей x(tm)

при условии

известного

набора значений x(tm-i),

 

x{tm-2),

 

x(t2),

x(ti)

зави­

сит только от x(tm-i).

 

Поскольку

это справедливо для

любых от моментов

времени

ti<t2< ...

<tm,

 

где m —

произвольное целое число, процесс {x(k),

kel],

очевид­

но, марковский.

 

 

 

 

 

 

 

 

 

 

 

 

Нетрудно

показать, что этот процесс

является также

гауссовским. Полагая

в уравнении

(4-30) / = 0, получаем:

x(k) = <$>{k,

 

 

k

 

 

 

 

 

 

 

i-\)w{i-\).

0) * (0) +

£

Ф (fc, і) Г (/,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(4-31)

144


Поскольку

х(0)

и

все to (г— 1), і'=1,

k

по пред­

положению являются

гауссовскими,

то

отсюда

следует,

что вектор

x(k)

также

гауссовский для

всех

& = 0, 1,

так

какой

представляет собой просто сумму

гауссов-ских

случайных

векторов. Следовательно, для любого целого

m и произвольного

набора

моментов

времени

t,i, h, ...

..., <tmŒl

соответствующий набор случайных п-векторов

x(t\),

x(t2),

 

x(tm)

 

имеет

совместное

гауссовское рас­

пределение, что и доказывает утверждение.

Теперь приведем два возможных способа описания процесса. Из уравнения (4-25) известно, что совместная плотность распределения гауссовской марковской после­

довательности {x(k),

k^I}, где

/ = {/е:/г = 0,

1,

. . . } пол­

ностью определена

для всех k(=I, если известны

ее гаус-

совские

плотности

распределения

f[x(0)]

и

f[x{k

+

+ \)\x(k)],

причем

последняя

для

всех /геА.

Так

как

л;(0) является гауссовский случайным вектором с мате­

матическим ожиданием

х(0)

и корреляционной

матри­

цей Р(0), плотность

распределения

f[x{Q)]

 

определена1 .

При

известном

x(k)

из

уравнения (4-28)

следует:

 

E[x(k+l)\x(k)]

= <b(k+l,

 

k)x(k)+T(k+l,

 

 

k)w(k).

 

 

 

 

 

 

 

 

 

 

 

 

(4-32)

Тогда

 

 

 

 

 

 

 

 

 

 

 

X {k -f- 1 ) -

Е [х (k - f 1 ) IX (k)} = Ф (k - f 1,

k)x(k)

+

 

- f T(fe-f 1, k)w(k)

Ф(£ +

1,

 

k)x(k)-

 

 

— Г ( £ + 1 , k)iô(k)

=

r(b-\-l,

 

k)[w(k)-w(k)\.

Следовательно,

условная

корреляционная

матрица

имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

E[{x(k+ï)—E[x(k+\)\x(k)]}{x(k+\)

 

 

 

 

 

 

—E{x(k+l)

\x(k))Y]

= E{T(k+

1, k)[w(k)

 

 

—w(k)][w(k)—w(k)]T'(k+l,

 

k)}

=

 

 

 

 

= Г(/г + 1, k)Q{k)V{k+l,

 

k).

 

 

(4-33)

Условная

плотность

распределения

 

вероятностей

определяется

условным

математическим

 

ожиданием

(4-32) и условной корреляционной

матрицей

(4-33).

Если

матрица

Г(&+1,

k)Q(k)T'(k+1,

 

k)

сингулярна, го

1

Для этого требуется,

чтобы

матрица

Р

(0)

была

положитель­

но определена. Если это не так, то следует проводить описание про­ цесса с помощью характеристической функции.

10—85 145


следует описывать процесс с помощью условной харак­ теристической функции.

Во втором способе описания іауссовость и марко­ вость процесса используются с целью получения удоб­ ных соотношений для математического ожидания и кор­

реляционной

матрицы.

 

 

 

 

 

 

 

 

 

Полагая

 

E[x(k)]

= x(k),

из уравнения

(4-28)

имеем:

 

 

x{k+l)=0(k+l,

 

k)x(k)+T(k+l,

 

 

k)w{k)

(4-34)

для

всех

 

 

Так как х(0)

и w{k),

 

 

даны,

уравне­

ние (4-34) является

рекуррентным

соотношением для

математического

ожидания

случайной

 

последователь­

ности.

 

 

 

 

 

 

 

P(k)=E{[x(k)—x(k)][x(k)—x(k)]'},

 

Далее,

полагая

 

 

из уравнений (4-28),

(4-34)

и (4-26)

получаем, что

 

P ( * + l ) = £ { [ * ( * + l ) - * ( f e + l ) ] [ * ( * + l ) -

 

-

x (k +

I)]'} =

Е ({Ф (k + 1,

k) [x(k)

-

x (k)]

+

 

+

Г ( £ + 1 ,

k)[w(k)-w(k)]}{4>(k

 

+

l,

 

k)[x(k)-

 

 

-

x (k)} +

V(k

- f 1,

k) [w (k) -

w (k)}}')

=

 

 

 

 

=

Ф(£ +

1,

ЩР(к)Ф'{к+\,

k)

+

 

 

 

 

+

Ф(£ +

1,

 

 

k)E{[x(k)-x(k)]\w(k)-

 

 

-w(k)]'}T'(k

 

+

l,

k) +

F(k+l,

 

 

k)E{[w(k)-

 

 

-ѵ(к)}[х(к)-х(к)У}Ф'(к+1,

 

 

 

k)-\-

 

 

 

 

 

+

Г(£ +

1, k)Q(k)T'(k

+

l,

k),

 

(4-35)

где

два средних

слагаемых

еще

требуется

определить.

Поскольку одно из этих слагаемых получено транспо­ нированием второго, достаточно рассматривать только одно из них.

 

Вычитая

почленно уравнение

(4-34)

из уравнения

(4-28), получаем:

 

 

 

,

x{k+l)^x(k

+ l)=(b(k+l,

k)[x(k)—x(k)]+

 

 

 

+ Г ( А + 1 ,

k)[w{k)—w{k)l

 

'

Вводя

обозначения

x(k)=x(k)—x(k)

и w(k) —

= w(k)—w(k),

 

это выражение можно записать в .виде

 

x(k+l)=0(k+l,

k)x(k)+T(k

+ l,

k)w(k)

для k=0, I ...

 

 

 

 

.146


По аналогии с уравнением (4-31), имеем:

х > ) =

Ф(£,

0)х(0) +

 

 

k

 

і) Г (г,

с 1) Si (і - 1).

 

+ Ц

Ф

(4-36)

і=і

 

 

 

 

 

.Умножая уравнение (4-36)

почленно

справа на

w'(k)

и усредняя полученное выражение, получаем--

 

E[x(k)w'

{Щ=Ф{к,

0) Е [ х(0)

w' (k)] -f-

 

k

 

 

 

 

 

+ £ Ф(6, г) Г (г,

і—

 

 

 

Ясно, что процесс (й5(&), & = 0, 1 . . . } является гауссовской белой последовательностью с нулевым средним, независимой от гауссовского случайного n-вектора х(0). Это значит, что

 

всех іï^=k

E[w(i—l)w'(k)]

= 0

 

 

 

для

и

 

 

 

 

 

 

 

£[Ж(0)Й7'(А)] = 0

 

 

 

для всех k = 0, 1 ... Следовательно,

 

 

 

 

E{x{k)w'{k)]

= E{[x{k)~

x{k)][w{k)—

W(k)]'}

= 0

для

всех & = 0,

1 ... Это означает, что

второе

и третье

слагаемые в уравнении (4-35) равны нулю и

уравнение

принимает вид:

 

 

 

 

 

 

 

P(k+\)

= 0(k+l,

k)P(k)Q>'{k+l,

k)

+

 

 

+ Г (k + 1, k) Q (k) Г' (k + 1, k)

 

(4-37)

для

& = 0, 1 ... Так как матрицы

Я(0)

и Q(k)

 

известны,

причем последняя для всех k = 0, 1,

уравнение (4-37)

является рекуррентным матричным уравнением для кор­

реляционной

матрицы -последовательности.

 

Для каждого значения k характеристическую функ­

цию последовательности можно представить в виде

?x(s,

k) — ехр

jx'(k)s

~s'P(k)s~\,

 

где s tt-вектор.

 

 

 

Использование здесь P{k)

может показаться

чрез­

мерным упрощением,

поскольку процесс {x(k),

&е/}

10*

147