Файл: Медич Д. Статистически оптимальные линейные оценки и управление.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.04.2024

Просмотров: 241

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Подставляя это определение в уравнение (3-9),полу­ чаем соотношение для взаимно независимых событий

А и В:

Иными словами, тот факт, что событие В произошло, не оказывает влияния на вероятностный закон появле­

ния

события

А; эти два

события

являются «несвязан­

ными».

 

 

множеств Аи Л2 , .. .

 

Конечное

или счетное

семейство

...,

Ап, .. . из Q называется независимым, если

Р | П Л г - ] = Р ( Д ) Р ( Л 2 ) . . . Р ( Л п ) . . .

Поэтому компоненты случайного я-вектора X назы­ вают статистически независимыми или кратко независи­ мыми, если функцию распределения F(x) можно пред­ ставить в виде

 

 

 

F{x) = f[Fi{Xi),

(3-25)

 

 

 

1=1}

 

 

где

Fi(Xi)

=Р(ХІ^ХІ).

Семейство

(Xi, ..., ХП)

назы­

вается системой независимых случайных величин.

 

 

Из уравнения (3-25) следует, что соответствующая

плотность

распределения имеет вид:

 

где

 

 

tel

 

 

 

 

 

 

 

для

і = 1 , ..., я в предположении,

что указанные

произ­

водные существуют.

 

 

 

Соответствующая характеристическая функция

 

 

 

М « ) = = П

 

( 3 " 2 7 )

где

 

 

tel

 

 

 

 

 

 

 

 

 

 

00 .

 

 

 

 

Vi (Si) =

j е*% (xi) dxi\

i = 1,..., п.

 

 

 

 

— 0 0

 

 

101


Заметим, что уравнения (3-25) — (3-27) эквивалентны определениям независимости системы п случайных ве­ личин.

По аналогии с определением независимых случайных величин можно сказать, что два случайных вектора X и Y независимы, если

где

 

 

F(x,

y)=Fx(x)Fr(y),

 

 

(3-28)

 

 

 

 

 

 

 

 

 

Fx(x)=P(X<X);

 

 

 

FY(y)=P(Y^y).

 

Отсюда следует,

что

 

 

 

 

где

 

 

f(x,

y)=fx(x)fY(y),

 

 

(3-29)

 

 

 

 

 

 

 

 

 

 

 

 

dnF

у

 

c W v

 

' * ѵ

'

 

Лс,...сЬгп

 

 

ду1...дут

 

если указанные частные производные существуют.

Соответствующая

характеристическая

функция имеет

вид:

 

 

ф(5, Г)=ф*(5)фу(г),

 

(3-30)

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

00

 

00

 

 

 

 

?x(s)=

 

 

J...

 

§eix'sfx{x)dx1...dxn;

 

 

 

 

—со

 

—оо

 

 

 

 

?,(/•)=

J . . .

 

^ew%{y)dy,...dym.

 

 

 

 

—00

 

—00

 

 

 

 

Здесь s — я-вектор;

r — m-вектор.

 

 

Для независимых

X и У имеем:

 

 

 

/

(

^

) =

 

fy (у)

=

f * { x ) '

 

 

так что

 

 

 

 

 

 

 

 

 

 

 

 

00

 

00

 

 

 

 

Е(Х\У)=

 

 

 

 

J^/(x|y)rfx, ...Й?Л;П =

 

 

 

 

—00

 

—00

 

 

 

 

СО

 

 

00

 

 

 

 

 

 

=

 

 

 

 

I" xfx{x)dx1...

dxn

— E

(Х)~х,

—оо

 

—оо

 

 

 

 

 

 

ианалогично

^= Р * х = £ [ ( Х - * ) ( Х - - * ) ' ] -

102


Пример 3-6. В примере 3-2

• /

і

/

для х 2 +

і/!

f I

 

 

 

 

 

 

 

V

О в

 

:

 

 

 

в

остальных точках.

Здесь случайные величины X и У зависимы. Независимые случай­ ные величины Хі и Хг иллюстрируются примером 3-3, где их совмест­ ную плотность распределения

 

 

 

4х,хг<?

1

2

для

X,,

х 2 ^ 0 ;

 

 

 

О в остальных точках

 

можно представить в виде

 

 

 

 

 

 

 

 

 

 

f (Xi. x2)

= fXi

 

 

 

г ),

 

где

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f

 

~ * i

 

 

 

 

 

 

fX i

(x,)

= < 2

j c

' e

 

д л

я

 

точках;

 

 

 

{.

 

О в

остальных

аналогично для fx

2 ) .

 

 

 

 

 

 

 

 

Легко

убедиться,

что

 

 

 

 

 

 

 

 

 

 

 

 

 

00

 

 

 

 

 

 

 

fx,

( * i ) ^ o ;

j

f*,

( * i ) « f c i

=

i ;

 

 

 

 

 

0

 

 

 

 

 

 

аналогично для fx

(x2 ).

 

 

 

 

 

 

 

 

К о р р е л я ц и я

 

 

 

 

 

 

 

 

 

Две

случайные

величины

Х{

И Ул-

называются не­

коррелированными,

если

 

(Хг)Еу5)

 

 

£

 

( Х , У , ) = £ ,

( 3 - 3 1 )

и коррелированными

в

противном

случае.

Если

X — случайный

n-вектор,

компоненты которого

некоррелированы,

то

 

 

 

 

 

 

 

 

Е [{ХІ -

Xi) (Xj]-

ХІ)] =

Е

(XtXi)

-[XiXs

 

=

Xtxf-ІХіХіЩО

для всех іфѵ], г, j=l, ..., п. Отсюда следует, что соот­ ветствующая корреляционная матрица

Р**Е[(Х—х)(Х—х)1

диагональна.

103


 

Если X и У— случайные

векторы с компонентами X,,

t =

l , ..., п и

У,-, / = 1 , ...,

т,

причем соотношение (3-31)

справедливо для всех і и /, то X и Y называются

взаим­

но

некоррелированными

случайными

векторами.

 

В этом

случае

 

EXY(XY')=E(X)E{Y')=xy'.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из уравнения (3-16)

 

 

 

 

 

 

 

 

 

 

 

PXY

= E[(X-x)(Y-y)']

 

 

 

= E(XY')-xy'

= 0.

 

 

 

Взаимная корреляционная матрица двух некоррели­

рованных

случайных векторов является нулевой.

 

 

 

Две матрицы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ѵ Х Х

=

Е(ХХ')

 

 

и W X Y

=

E(XY')

 

 

 

называются

соответственно

ковариационной

матрицей

X

и взаимной

 

ковариационной

матрицей

X и У.

 

 

 

 

Коэффициент

корреляции

двух случайных величин ХІ

и

Yj определяется

соотношением

 

 

 

 

 

 

 

 

 

р . . =

£ Г ( * І - * І )

Vi-Ч\

 

 

 

 

Yj

Этот коэффициент, очевидно, равен нулю,

если ХІ

и

взаимно

некоррелированы.

 

 

 

 

 

 

но

Докажем

неравенство

| р г 3 | ^ ' -

Д л я этого

достаточ­

рассмотреть

случай

Xi = jjj = 0-

Тогда,

если

с — ска­

лярная постоянная величина, то можно заметить, что

 

 

Е [(сХг -

Yjf] =

Е (X]) с2

-

( В Д ) с +

Е (У*) > 0.

 

 

Однако,

так

как выражение Е (X^)£s

( Х ^ ) с -f-

-+-£(У^) является квадоатным

трехчленом относительно с,

необходимые

и достаточные

 

условия

его

неотрицатель­

ности имеют вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

Е(Х2)>0

и E(Y2\~

' £

™ 1 2

> 0 .

 

 

 

Первое условие, очевидно, выполняется всегда. Вто­ рое приводит к неравенству

1 _ _І£ИІГІ111_ > 0

£(Л-( ?)£(5ф

или, что то же самое, к доказываемому неравенству

1—р2>0.

104


В заключение заметим, что два независимых случай­ ных вектора некоррелированы, но обратное утверждение в общем случае неверно.

Если X и У независимы, то, очевидно.

 

 

ОО

00

 

 

 

ExY(XY')=

 

^xy'fx{x)}y(y)dx1...dxndy,...dym

=

 

 

— 0 0

— 00

 

 

 

 

00

00

 

СО

00

 

=

1'*'

\ x f x ( x ) d x t - d x *

J---

J y'fY{y)dy1...dym

=

 

— 0 0

— 0 0

=

— 0 0

—CO

 

 

 

 

E(X)E(Y').

 

Чтобы показать, что обратное утверждение неверно,

достаточно считать

X и

У скалярами.

Пусть функция

fx(x) симметрична

относительно х = 0

и

пусть Y=X2.

Тогда

 

 

 

 

E(XY) =

E(X3)=

Jx3f(x)dx

=

0,

 

 

—со

 

 

поскольку подынтегральное выражение—нечетная функ­ ция x. Так как Х=0, имеем:

Е(Х, У ) = Х У = 0 .

Эти две случайные величины, очевидно, некоррелиро­ ваны, но в силу соотношения Y=X2 они зависимы.

3-5. Г А У С С О В С К О Е РАСПРЕДЕЛЕНИЕ

Один из законов распределения вероятностей, чаще всего используемых при практическом изучении случай­ ных явлений в природе, называется гауссовским или нормальным распределением. Это распределение приоб­ рело особенную важность для теории связи, теории оце­ нок и теории управления начиная с 40-х годов.

Гауссовское распределение играет столь существен­ ную роль в приложениях в силу двух основных причин. Во-первых, было экспериментально показано, что гауссовская модель обеспечивает приемлемую аппроксима­ цию случайного поведения многих физических систем. Кроме того, частичное обоснование использования гауссовского распределения при описании случайных явле­ ний дает центральная предельная теорема, рассматри­ ваемая ниже.

105