Файл: Медич Д. Статистически оптимальные линейные оценки и управление.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 247

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

цесс {x(t), / е / } , где множество / — любое из трех ука­ занных выше, можно адекватно представить, рассматри­ вая его поведение в конечном числе точек ti, ..., tm из /. Тогда процесс можно описать, используя совмест­

ную функцию распределения

вероятностей m случайных

п-векоторов x(ti),

x(tm)

для

любого целого m

и про­

извольных m точек U, ...,

tm

из /. Такую функцию

мож­

но записать в виде

 

 

 

 

 

F{x\ ....

* ™ ) = Р [ * ( * і ) <

 

 

 

X(tm )<X™]

(4-4)

для любых д-векторов х1,

..., хт.

Это выражение

анало­

гично уравнению

(4-1), однако

оно является значитель­

но более содержательным, поскольку здесь следует рас­ сматривать все целые m и соответственно все наборы из

m точек ti, ..., tm,

принадлежащих /.

 

 

Эквивалентные описания с помощью совместной

плотности распределения

и совместной

характеристиче­

ской

функции получаются

по

аналогии

ç уравнениями

(4-2)

и (4-3). В первом случае

имеем:

 

 

 

f{x\...,

xm)=—,

 

,

- ,

(4-5)

полагая, что указанные тп частных производных суще­ ствуют.

Во втором случае

 

 

 

 

(fis1

sm) = E

exp

/ y, iU) s*'

(4-6)

для любых

/г-векторов 5*(г =

1, ...,

m).

 

В левой

части

уравнений (4-1) — (4-6) иногда

удоб­

но указывать время. Это можно сделать, например, за­

писывая

функцию

fix1,

хт) в

виде

fix1,

ti; ...;

хт,

tm)

или

f{x{ti), ...,

xitm)]

и аналогично

для

функций

F

и ф. В дальнейшем

будут

использоваться все три формы

записи.

 

 

 

 

 

 

 

 

 

Математическое

ожидание

и

корреляционная

 

функция

 

 

 

 

 

 

 

 

Математическое

ожидание

случайного

процесса

{xit),

t<=l) определяется

для всех

tŒ.1

выражением

 

 

 

 

 

x(t)=E{x(t)\.

 

 

(4-7)

125


5та функция называется также

средним

 

значением

или

просто средним

процесса [x(t),

tŒl}.

Если

она

рав­

на нулю

для

любого

Î Œ I , то

говорят, что

{x(t),

 

tel}

является случайным процессом с нулевым средним.

 

Матричная

корреляционная

функция

 

или

просто

кор­

реляционная

 

функция

процесса

{x(l),

t<=l)

определяется

для всех t

и т е /

соотношением

 

 

 

 

 

 

 

 

 

 

P(t, x)=E{[x(t)-x(t)lx(T)~x(%)]'}.

 

 

 

 

 

(4-8)

Для двух случайных процессов [x(t)\

t<=!}

и

{y(t),

tel}

при

E[x(t)}=x(t)

 

и

E{y(t)]

= y(t)

 

функция

 

 

 

 

Pxv(t, r)=E{[x(t)-x(tmy(r)-y(x)Y}

 

 

 

 

 

(4-9)

называется

взаимной

матричной

корреляционной

 

функ­

цией

этих

двух

процессов

для

всех

t,

хеі.

Ясно,

что

векторы

X и

у

не

должны

обязательно

иметь

равное

число компонент.

 

 

 

 

P(t,

 

 

 

P(t)

Если

t=x,

обозначим

матрицу

t)

через

и назовем

ее корреляционной

матрицей

процесса

{x(t),

tel}.

По

аналогии

введем

матрицу

Pxy(t)

= Pxy{t,

t)

и

назовем

ее взаимной

корреляционной

 

 

матрицей

двух

процессов.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Сразу заметим, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(t)=E[x(t)x'(t)]-x(t)x'(t);

 

 

 

 

 

 

 

 

 

 

 

Pxy{t)=E[x(t)y'(t)]-x(t)y'(t).

 

 

 

 

 

 

 

Также

ясно, что P'(t)=P(t),

но

в

общем

случае

P'xy{t)¥=Pxy(t).

 

Однако равенство

P'xy(t)

=Pyx(t)

вы­

полняется

всегда.

 

 

 

 

 

 

 

 

 

 

 

Использование математического ожидания и матрич­ ной корреляционной функции при описании случайных процессов, разумеется, аналогично использованию мате­ матического ожидания и корреляционной матрицы при описании случайного вектора. Разница заключается

в том, что теперь параметром является

время.

Пример

4-3.

Для случайного процесса с

непрерывным временем

из примера

4-1

• ê ( / ) ~ £ ( V 0 s i n / ) = 0

 

 

 

 

 

при t^O,

поскольку сл>чайная величина Ѵо равномерно распределена

между —1

и +1

и поэтому является случайной величиной с нулевым

средним.

 

 

 

 

126


Корреляционная функция процесса имеет вид

 

 

Р (t, х) — Е (VQ sin t sin t) =

E (VQ) sin / sim =

(sin t sin x)/3,

откуда следует, что

 

 

 

 

 

P(i) = (sin2 0/3.

 

 

 

Пример 4-4. Для чисто случайной

гауссовской

последовательно­

сти из примера 4-2 имеем y{k)=Q

и РЦ, k)—0 для всех /, k=0, 1,...,

если ]ФМ- Для / = £ , очевидно,

P(k)=a2(k).

 

 

 

Полагая, что точки отсчета случайного процесса из примера 4-2

совпадают с точками ^ = ßjt/4, £ = 0 , 1,

... ,

для случайного

процесса

с дискретным временем из примера 4-1

и

Ѵ(, статистически

не зави­

сит от y(k) при любом k=0, 1

получаем:

 

 

P'viL k)=E[x(i)y(k)]=0

при любых /, k=0, 1, . . . для этих двух процессов.

Независимые и

коррелированные

случайные

про­

цессы

 

 

 

 

 

 

 

 

 

 

 

Понятия независимости

и

корреляции

переходят

в теорию

случайных

процессов

из теории

вероятностей

так же, как и понятия

математического

ожидания и кор­

реляционной

функции.

 

 

 

{x(t),

Î Œ I }

чисто

слу­

Назовем

случайный

процесс

чайным, если для любых m

моментов времени

t\, ...,

tm

из /, где m — произвольное

целое

число,

справедливо

равенство

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

P[x(tt)<x\...,

x(tm)<xm\

 

 

=

H

 

Pi[X(ti)<X*]

 

или, иначе

говооя,

 

 

 

 

 

/=.)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Fix1

 

x m

)

^ \

\

Fi{x*)

 

 

(4-10)

для любых

tt-векторов

x1,

...,

 

xm.

 

 

 

 

 

 

Это определение можно записать с помощью соответ­ ствующих плотностей распределения в предположении, что они существуют:

m

где

 

 

 

fix1

xm)=

д т П р

...дя%'

 

 

дх\...дх1п...дх?

 

 

Fi

 

 

дх[

...дх>

 

J 27


По аналогии можно записать это определение с по­

мощью характеристической функции.

 

 

 

 

 

 

Теперь

пусть {x(t),

/ е / }

и

{y(t),

te/}

д в а случай­

ных процесса, где х—п-вектор,

 

а

у — р-вектор. Эти

два

процесса называют взаимно

независимыми,

если для

лю­

бых m моментов времени ti, ...,

tm

из

/,

где

m — произ­

вольное целое число, выполняется условие

 

 

 

 

 

P[x{tl)<x1

 

 

 

 

x(tm)<xm,

 

 

 

 

 

у (Q < у1

 

у {tm) < ут\

 

=

РЛх

(О < х>. • • •

 

 

 

.. •, X (tm)<

хт]

Р2

(t,)

1

 

 

у (/„) <

ут)

 

 

для любых /г-векторов х1

 

 

хт

и

р-векторов

у1, ...

...

Ут-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда сразу можно получить следующие соотноше­

ния,

аналогичные

уравнениям

(4-10)

и

(4-11):

 

 

F(x*

хт,

у1

 

ym)

= F1(x1

 

 

xm)F2(y\

 

 

ут);~[

fix1

xm,

y1,...,

« n W . C * 1

. - .

xm)f2(f

 

ym). a

Рассматривая

приведенные

выше

примеры,

можно

убедиться,

что

процесс

из

примера

4-2 является чисто

случайным, в

то

время

как

ни

один

из

двух

процессов

в примере 4-1

не является чисто случайным. Далее,

если

моменты отсчетов случайного процесса с дискретным временем в примере 4-1 совпадают с моментами отсче­

тов процесса {y(k),

k = 0, 1,

. . . } из примера

4-2, a

Ѵо не

зависит от х(к)

при любом

k, то эти два процесса

явля­

ются взаимно

независимыми.

 

 

Теперь обратимся к понятию корреляции

при

опи­

сании случайных

процессов. Ковариационной

матрицей

случайного процесса называется при любых t, т е /

выра­

жение

 

"¥{t,x)^E[x{t)x'{x)\.

(4-12)

 

 

Раскрывая скобки в правой части уравнения

(4-8),

получаем:

 

 

 

 

 

P(t, x)=Eix(t)x'(x)]—2x(t)x'(x)

+

 

+x(t)x'(x)=W(t,

x)—x(t)x'{x).

(4-13)

Если {x(t), tŒ.1) — процесс с нулевым средним, то, очевидно,

P(t, T)=V(t, X)

для всех t, т е / .

128


Для іфх ковариационная матрица (4-12) и корреля­ ционная функция (4-8) дают меру пространственно-вре­ менной корреляции случайного процесса {x(t), t<=I} в от­ личие от пространственной корреляции, описываемой этими выражениями при t = x.

Случайный

процесс

называют

 

некоррелированным,

если

 

W(t,

x)=E{x(t)]B[x'(x)]

 

 

 

(4-14)

 

 

 

 

 

для всех / и X из /,

іфх.

 

 

 

 

 

Если

случайный

процесс — чисто

случайный,

то для

любых

t, т е / ,

Ефх

справедливо

равенство f(xl,

t; х2,

х) = f1 (л:1, t) \г{хг, х)

и отсюда следует, что

 

 

 

 

 

00

00

 

 

 

 

 

W(t,

т ) =

j ^ M

*

1 ,

О Х

 

 

 

 

— 0 0

—со

 

 

 

 

 

X fsС*3- z)dx[

••• dx* dx\

... dx2

=

 

=E{x(t)}E[x'W.

Следовательно, чисто случайный процесс является также и некоррелированным. Если, кроме того, процесс имеет нулевое среднее значение, то

P(t,

т ) = ¥ ( / , т ) = 0

 

 

f(x,0)

 

 

 

 

 

 

для всех t, т е / , Ефх.

 

 

 

 

 

 

X

Покажем на простом примере, что

 

0

!

~~

некоррелированный

случайный

про­

Рис.

4-3.

Плот­

цесс не обязательно

должен быть чи­

ность

распределе­

сто случайным.

 

 

 

ния

вероятностей

 

 

 

 

 

начального

 

зна­

Пример 4-5. Рассмотрим

скалярный

слу­

чения

случайного

чайный процессе

{x(k), fe=0,

1}, для которого

процесса

с

ди­

х(\) = cu2 (0), где а — скаляр,

отличный от ну­

скретным

време­

ля. Очевидно, что процесс не будет чисто слу­

нем.

 

 

 

чайным. Предположим, что случайная величина

 

 

 

 

x(O) равномерно распределена между —1 и +1,

как

показано

на

рис. 4-3.

 

 

 

 

 

 

 

 

Тогда

 

 

 

 

I

 

 

 

Ф ( 1 , 0) =

£ [ х ( 1 ) х ( 0 ) ]

= аЯ[х»(0)]

 

 

 

 

 

 

 

С другой стороны, ясно, что £ [ х(0)]=0 и

—1

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

£ [ x ( l ) ] = « £ [ x 2 ( 0 ) ] = - J - j V < ^ = - | - -1

9-85

129