Файл: Медич Д. Статистически оптимальные линейные оценки и управление.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 249

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

спектральную плотность в широком диапазоне частот точно так же, как белый свет.

Как следствие чистой случайности, совместная харак­ теристическая функция гауссовского белого шума имеет вид:

 

m

 

 

<Р (s1,

sm ) = n

<Pi(s''),

 

где

sl- sv

 

 

cpi(s!') = exp jxi's*

Piisi

1,. ., m.

для произвольных n-векторов s1, ..., sm ; где х{ и Р " , і =

=1, ..., m определяются уравнениями (4-19) и (4-20). Корреляционная функция гауссовского белого шума

P(t, т) = 0 для

всех t и т из /, где

Іфх.

 

 

 

 

 

Ясно, что гауссовский белый шум полностью описы­

вается его математическим ожиданием x(t)

и

корреля­

ционной матрицей

P(t)

для всех

éŒl.

 

 

 

 

 

В дальнейшем

для

удобства

гауссовский

белый шум

с дискретным

временем

называется

гауссовской

 

белой

последовательностью,

 

а гауссовский белый

шум

с непре­

рывным временем — просто

 

гауссовским

 

белым

 

шумом.

Теперь рассмотрим формальное определение марков­

ского

процесса. Случайный

 

процесс

[x(t),

É Œ I }

называ­

ют марковским,

если

для

любых m

 

моментов

времени

t\<h<

. . . < / т о из

/,

где

m

— любое

целое

число,

услов­

ная функция распределения вероятностей x(tm)

при

условии, что известны значения x(ti),

 

•..,

x(tm-i),

 

имеет

следующее свойство:

 

 

 

 

 

 

 

 

 

 

 

 

 

P[x{tm)<xm\x(tm.l)

 

 

= xm-1,...,

 

x(t,)

=

x1]

 

=

 

= Р(tm)

<xm\x{tm^)

 

=

X*-Ч

 

 

 

для произвольных /г-векторов

 

х

1 , х

т .

 

 

 

 

В терминах условной плотности распределения это

означает, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f { х т \ х

т ' \ x l

)

=

 

f(хт\X"1-1)

 

 

 

для произвольных /г-векторов

 

л : 1 , х

т .

 

 

 

 

Это равенство можно также записать в виде

 

 

 

 

f[x(tm)

\x(tm-i),

 

 

...,

X(ti)]

=

 

 

 

 

 

 

 

=

f[x(tm)

 

\

x(tm-i)l

 

 

 

 

 

 

134


В силу определения ясно, что если считать tm~i теку­ щим временем, а tm-г, ti — прошедшим, то вероят­ ностный закон, описывающий поведение процесса в бу­ дущем, т. е. во время tm, зависит только от текущего значения процесса и совершенно не зависит от его по­ ведения в прошлом. Это свойство называют «марко­ востью».

Марковский

процесс описывается

функцией

распре­

деления

вероятностей

перехода

F[x(t)

|х(т) = £], ко­

торая

представляет

собой условную

вероятность

того,

что

x(t)^fe,

где

£— любой n-вектор, при

условии

x(r)—Z,.

Здесь

£ — фиксированный л-вектор, а. t

и т —

элементы

множества

индексов

процесса

при

t>x.

Можно также описать процесс с помощью плотности

распределения

вероятностей

перехода, обозначаемой

f[x(t)\х(х)],

 

в предположении, что она существует.

 

Теперь

рассмотрим

специальный

способ

описания

марковского

процесса.

Пусть

{x(t),

tŒl} — марковский

процесс, плотность

распределения вероятностей

перехо­

да

которого

f[x(t)

\ х(х)]

определена

для любых t и х

из

I , t>x.

Один

из способов

описания процесса заклю­

чается в определении совместной плотности распределе­

ния m случайных п-векторов x(ti),

 

 

x(tm)

для произ­

вольного целого m, любых m моментов времени

h<.h<.-

• •

<..

.<tm

из / и любых n-векторов

х1,

х™.

 

 

 

 

Пусть

іі<іг<..

.<tm

— моменты

времени

из

/,

где

m — любое целое число. Тогда

по формуле

Байеса

 

f(xm,...,

x1) = f ( x m \ x m

- i

x')f{xm~\...,

 

X1).

(4-22)

 

Однако поскольку процесс марковский, справедливо

равенство

 

 

 

 

 

 

 

 

 

 

 

 

 

f ( x m \ x m - \ . . . ,

 

 

xl)^=f{xm\xm-1).

 

 

 

 

 

Это

означает,

что уравнение

(4-22)

можно

привести

к виду

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

( x m , x 1

) = f(xm\xm-1)f(xm-t,...,

 

 

 

X1)

 

(4-23)

 

Вновь используя формулу Байеса и марковость про­

цесса,

получаем:

 

 

 

 

 

 

 

 

 

 

/ (xm

~1

;...

; х1) =

}{хт~1т-1,...,

 

х1 ) / (х"1 "2 ,1 ...,

х') =

 

 

 

 

==/(хт-хт-2){{хт'\

 

 

 

.... X 1 ) .

 

 

 

 

135


Подстановка полученного результата в уравнение (4-23) приводит к соотношению

f(xm,...,

x1)

= f(xm\xm-J)f{xm-l\xm-t)f(xm-2,...,

 

X1).

Повторяя эту процедуру, получаем:

 

f(xm,

x1)

= f(xm\Xm-1)f(xm-l\xm-i)...

fix'lx1)

fix1).

 

 

 

 

(4-24)

Все сомножители в правой части уравнения (4-24)

известны,

кроме f(xl) =f [x(tt)],

поскольку плотность

распределения вероятностей перехода f[x(t)\x(x)]

опре­

делена для всех t, и т из /, t>x.

Следовательно,

совмест­

ная плотность распределения процесса полностью опре­

делена,

если определена плотность

распределения

f[x(ti)].

В частности, если t\ — начальное

время множе­

ства индексов /, то марковский процесс полностью опре­ деляется плотностью распределения вероятностей про­ цесса в начальный момент времени и плотностью рас­ пределения вероятностей перехода.

Ради простоты в выражениях для плотности распре­ деления опущена зависимость от времени. Это не озна­

чает,

например, что условная

плотность

распределения

x{tm)

относительно

x\tm~\)

совпадает с плотностью

рас­

пределения x(tm-i)

относительно x(tm-2)

и т. д.

плот­

Кроме того, предполагается,

что все указанные

ности

распределения существуют. Разумеется, все рас­

суждения можно было также провести, используя функ­ ции распределения либо характеристические функции.

Теперь приведем два важнейших свойства марков­ ских процессов.

1. Пусть {*(/), tel}— марковский процесс. Предпо­ ложим, что /і подмножество множества /. Тогда про­ цесс {x(t), teil} также марковский. Доказательство этого свойства предоставляется читателю в качестве

упражнения.

 

 

 

 

 

 

 

 

 

2. Марковский процесс

является

также марковским

в обратном времени. Иными словами, для tm<tm+i<-

• •

.. .<tm+h

из I,

где m и k — два любых

целых

числа,

имеем:

/ (хт

I х т

 

 

хт+

к) = f(xm\

хт+1).

 

 

 

+

1

 

 

Чтобы

доказать

 

это

свойство,

используем

сначала

формулу

Байеса

 

 

 

 

 

 

 

 

Д ѵт

I Ym+

1

 

Wn+ k\ •

 

 

 

 

 

 

I я

?

Л

I

 

f ( % m + 1 , ....

Xm+h)

 

 

136


Переставляя аргументы совместной плотности рас­ пределения и используя марковость процесса, получаем:

f{xm,

хт+1,...,

 

xm+h)

=

f (хт+'\

хт+к~\...,

 

хт)

=

 

=

 

 

 

f{xm+h\xm+k-1)(xm+1\xm)f(xm)

 

в силу уравнения

(4-24).

 

 

 

 

 

 

Аналогично

 

 

 

 

 

 

 

 

 

f { x

m + \ x m

+

K )

= f{xm+k,

х т + к

- \ х

т + 1

)

=

=

f (хт+

к

I хт+

"" ')

• •. / (хт+

21 хт+

') I (хт+

').

 

Разделив эти два соотношения почленно друг на дру­

га и сократив подобные члены, получим:

 

 

 

f(xm\xm+1,...,

 

x ^ t ) - f H j l ^ ) f W i

 

 

Используя еще раз формулу Байеса, имеем:

 

 

 

f (Хт+

 

1 j X*") f (хт)

f (

x m + ' , x

m )

_

 

 

 

 

fix™*1)

 

~~

f(xm+')

 

~~

 

 

 

 

_f(x*»,

*"+•)_,

+

 

 

 

что и требовалось доказать.

Понятие марковского процесса может быть легко расширено на так называемые марковские процессы высших порядков. Например, рассмотрим случайный про­

цесс

{x(t),

t^I)

для любых

m моментов

времени

t\<

<tz<..

.<tm,

где

m — произвольное

целое

число,

обла­

дающий следующим

свойством:

 

 

 

 

 

 

P[x(tm)<xm\x{tm_l)

=

xm-1,....

x{tl)

=

xx\

=

 

= P[x{lm)<xm\x{tm_l)

=

xm-\

x{tm^) = xm'%

при любых

я-векторах х\ ...,

хт.

Такой

процесс

назы­

вается марковским

процессом

второго порядка.

Опреде­

ление марковского процесса k-ro

порядка

для

k^3

очевидно.

 

 

 

 

 

 

 

 

 

Впоследствии рассматриваются в основном марков­ ские процессы первого порядка, которые, как и прежде,

будут

называться просто марковскими. Однако при изу­

чении

оптимального сглаживания

мы также встретимся

с марковскими процессами второго

порядка.

137


По аналогий с определением марковского процесса марковский процесс второго порядка описывается своей

функцией распределения

вероятностей перехода F [x (t) ^

Х(ХІ)

—t,1, x(%2) = tsz\,

где І произвольный

 

«-вектор;

и £2

— два

заданных

«-вектора;

t, х\, хг^І,

причем

t>Xi>xz.

Подразумевается,

что соответствующая

плот­

ность распределения

вероятностей

перехода

имеет вид:

 

 

f[x(t,)\x(x,),

х(х2)].

 

 

 

Два свойства марковских процессов, приведенные

выше, также

имеют

место и для марковских

процессов

второго

порядка.

 

 

 

 

 

 

 

В заключение параграфа

проиллюстрируем

на

при­

мерах понятия гауссовского марковского процесса и гауссовского марковского процесса второго порядка. Определения этих процессов тривиальны.

Для удобства дальнейшего изложения назовем гаус-

совский

марковский

процесс

с

дискретным

временем

гауссовской марковской

последовательностью

и

оставим

термин гауссовский

марковский

процесс

только для гаус­

совского

марковского

процесса

с

непрерывным

време­

нем. Так же будем

поступать в случае

марковского про­

цесса второго порядка.

 

 

 

 

 

 

 

Ясно, что гауссовский характер

этих процессов

опре­

деляет

распределение

реализаций

процессов,

в

точке,

а марковость управляет развитием, процесса

во времени.

Отметим, что два свойства марковских процессов первого и второго порядка, указанные выше, очевидно, выполняются, если эти процессы являются также гауссовскими.

Гауссовская марковская последовательность, множе­ ство индексов которой имеет вид /={/г:/г = 0, 1, . . . } , полностью определена, если заданы гауссовские плотно­ сти распределения вероятностей Я*(0)] и f[x{k + \) \x{k)\,

причем последняя — для

всех k. По аналогии с

уравне­

нием (4-24)

можно записать:

!

 

f[x{k+\),

 

x(0)]=nx(k+l)\x(k)]f[x(k)\x(k-\)]...

 

. . . / И 1 ) І * ( 0 ) Ш * ( 0 ) ]

 

(4-25)

для любого

Это выражение определяет совместную

плотность распределения

вероятностей

процесса.

Наконец,

заметим, что гауссовский

белый шум как

с дискретным, так и с непрерывным временем,

можно

138