Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 588

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Распределения

вероятности

и выборочная статистика

37

жение частицы принять равным нулю, X (0) = 0, то одномерная плотность распределения вероятности определяется выражением

где а — некоторая постоянная. Типичный участок пути может иметь вид, показанный на фиг. П.2.2.1.

Используя выражение (2.2.2), можно найти математическое ожидание величины X (t)

— о о

Этот интеграл можно разбить на два интеграла, один от —оо до 0, а другой — от 0 д о + о о , которые взаимно уничтожаются, так как

X(t)\

Ф и г . П . 2 . 2 . 1 .

подынтегральное выражение представляет собой произведение четной функции на нечетную. Следовательно,

Ш{Х (t)} = ІІх (t) = 0.

(в)

Если, однако, вычислять математическое ожидание квадрата вели­ чины X (t), то подынтегральное выражение будет состоять из про­ изведения двух четных функций и поэтому

о о

 

 

g { X 2 ( 0 } = (

e~*y2atdx = at.

(г)

Математическое ожидание квадрата некоторой случайной величи­ ны используется для характеристики ее интенсивности; положи­ тельное значение квадратного корня из него обычно называется средним квадратическим значением.

38

Глава 2

Пример 2.2.2. Среднее по ансамблю для динамической модели стохастического процесса

Пусть некоторый процесс описывается линейным дифферен­ циальным уравнением первого порядка, в котором входные X (t) и выходные Y (t) переменные являются случайными величинами:

dZB + aY(t)=X(t),

У(0) = 0

Чему равно математическое ожидание §{Т}?

Решение

Вычислим математическое ожидание от обеих частей уравнения и от начального условия и изменим порядок операций дифферен­ цирования и вычисления математического ожидания согласно

правилу

(2.2.16):

 

 

 

 

 

*ë{Y(t)} +

а Ш { у щ ^ Ш { Х { Щ ,

%{Y(0)}

=

0.

Если

обозначить

цу (t) = ${Y (і)} и

положить

цх

Ш{Х (t)}

равным некоторой постоянной, то можно решить детерминирован­

ное обыкновенное дифференциальное

уравнение

 

 

 

 

 

 

 

i u | î î L + f l n T ( 0 = l i Z ,

М 0 )

= 0.

 

 

(а)

Решение уравнения

(а)

имеет

вид

 

 

 

 

 

 

 

 

 

 

 

Ы * )

=

 

т

Ч

і

 

(

б

)

 

Это обычное детерминированное

решение,

которое приводится

в

пособиях

по

дифференциальным

уравнениям

и

анализу

детер­

минированных

процессов.

 

 

 

 

 

 

 

 

 

 

 

 

 

2.2 2.

Автокорреляционная

функция

 

 

 

Автокорреляционная

 

функция

случайной

функции

X

(t),

rxx

(tu

t2),

характеризует

зависимость значений

функции X

(t)

в

некоторый момент

времени

от

ее

значений

в

другой

момент

времени:

= Ш{Х (h)

 

 

 

 

 

 

 

 

 

 

 

rxx (h,

h)

X

(h)}

=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

СО

со

 

 

 

 

 

 

 

 

 

 

 

 

 

=

1

1 ХІХІР

(хи

tu

tz)

dxidx2-

(2.2.5)

Заметим, что r x x {tu

t2)

ОО — O Û

 

 

 

 

 

 

 

 

не

является

случайной

функцией

и

для

обозначения еѳ принято использовать строчную латинскую

букву

(а не греческую). На

фиг. 2.2.1

изображены

автокорреляционные

функции для процессов, графики которых показаны на фиг. 2.1.3.


Распределения

вероятности

и выборочная статистика

39

При построении моделей автокорреляционные функции находят наиболее важное применение при обработке данных и оценивании параметров, как описано в гл. 12.

гхх о т

гхх (?)

ЛЛЛЛЛ/\ ААЛЛА/

' V у V V

V

Ѵ Ѵ Ѵ І / Ѵ Ѵ

 

6

 

Ф и г . 2.2.1. Г р а ф и к и автокорреляционных

ф у н к ц и й д л я процессов, пока ­

занных на фиг.

2.1.3.

а — синусоидальная волна; б — синусоидальная волна плюс случайный шум; в — узко­

полосный случайный шум; г — широкополосный случайный шум. (Из работы [1],стр.20.)

Как видно из равенства (2.1.9), автокорреляционная функция стационарной функции зависит лишь от т, разности времени t2

40 Глава 2

-

tu

 

 

 

 

 

 

 

 

 

. r x x

(tu

t2)

= r x x (т) = ЦХ

(t+T)X

(t)}

=

 

 

 

 

 

 

со

oo

 

 

 

 

 

 

 

 

= r x x (—т) =

j

j

xtx2p

(ХІ, x2) t) dxi dx2.

(2.2.6)

 

 

 

— o o

— o o

 

 

 

 

 

Автокорреляционные функции r x

x (т) и r x

x (—т) являются четны­

ми функциями т.

 

 

 

 

 

 

 

 

Функция называется стационарной

в

широком

смысле слова

(или слабо

стационарной),

если

она удовлетворяет

следующим

двум

требованиям:

 

 

 

 

 

 

 

 

 

 

 

Ш{Х (t)} =

х,

 

 

(2.2.7а)

 

 

 

Ш{Х (t +

т) X (0} = г „ (т),

 

(2.2.76)

где U.JC некоторая постоянная, а г х х

зависит только от t2

— ti =

— т. Если

случайная функция, которая может быть описана нор­

мальным распределением вероятности, стационарна в широком смысле, она также стационарна и в строгом смысле слова, ибо, как будет показано ниже, нормальное распределение полностью определяется значениями х и г х х ; такое заключение, вообще гово­ ря, не справедливо для других распределений. На практике обыч­ но полагают, что если процесс идентифицирован как слабо стацио­ нарный, то средние высшего порядка также являются стационар­ ными.

Пример 2.2.3. Автокорреляционная функция

В примере 2.2.1 приводилась плотность распределения веро­ ятности для одномерного броуновского движения частицы. Дл я непосредственного вычисления автокорреляционной функции такого процесса по формуле (2.2.5) требуется плотность распреде­ ления вероятности второго порядка

ад tu

ü>=4a

ѵ м ^ - е х р [ - ^ -

2 ^ т ^ ]

-

<а>

Заметим, что, так как величины X 4) и X

(t2) не являются

неза­

висимыми,

произведение

плотностей распределения

вероятности

первого порядка не совпадает с выражением (а).

r x x

(tu t2)

Однако

вместо

того,

чтобы вычислять

величину

непосредственным интегрированием, согласно формуле (2.2.5),

удобнее

воспользоваться тем свойством броуновской

частицы,

что изменения ее положения за два неперекрывающихся

интервала

времени

оказываются независимыми, хотя сами величины X (ti)

и

X

(t2)

являются зависимыми. В частности,

величины

X (ti)

и

[X

(t2)

— X (tj)] независимы. Таким образом,

согласно

равен-


Распределения

вероятности

и выборочная

статистика

41

ству (2.2.4),

%{\Х (*,)] IX (t2) - X (h)}} =

= %{Х (Щ Ш{Х (tz) - X (*,)} = 0. Кроме того, из соотношения (2.2.3) следует

Ш{[Х (ti)] IX (h) - X (h))} = Ш{Х (h) X (t2)} - ЦХ* (ti)}.

Выражение (в) примера 2.2.1 дает

%{Х* (h)} =Â ah.

Следовательно

(для t2 > ^і),

 

 

rXx (h,

h) = %{X (ti)

X (t2)} = ЦХ* (ti)} = ah.

(6)

Такой же результат получается непосредственным интегрирова­ нием в равенстве (2.2.5).

2.2.3.Дисперсия

*

Среднее значение характеризует положение центра случайной величины; ее дисперсия, или рассеяние относительно среднего зна­ чения, также может описываться одним параметром. Классическим

рСсс,)

 

ІІ \\

 

 

i l l .

*r

111

Ух

I M

 

 

Ф и г . 2.2.2. Распределения

случайных величин

с одинаковым средним

значением,

но различной дисперсией.

примером, поясняющим смысл дисперсии данных, может служить стрельба незадачливого охотника по утке. Ему мало поль­ зы от того, что, согласно математическому ожиданию, утка убита. Из фиг. 2.2.2 видно, что две дискретные случайные величины могут иметь одно и то же среднее значение и в то же время совсем различ­ ные дисперсии.


42

Глава 2

Дисперсия случайной переменной X (t) определяется выраже­ нием

\ (t) = Ц[Х (t)

- ііх

(t))2}

=

Var {X

(t)}

=

 

=

g { X 2

(t) -

2X

(t) yiX

(t) +

цх (t)}

=

 

 

 

 

=

g { X 2 (*)} -

(0. (2.2.8)

Например, поскольку математическое ожидание положения броу­ новской частицы из примера 2.2.1 равно нулю, дисперсию можно вычислить непосредственно по %{Х2 (t)}.

Дисперсию суммы случайных величин W = а^Х + a2Y + . . .

можно определить следующим образом. Вычитая математическое

ожидание суммы, а именно [iw

=

 

+ а2\Ху +

• • •» из величи­

ны

W — аіХ + a2Y

+

. . . и

возводя

полученную

разность

в квадрат,

находим

 

 

 

 

 

 

 

 

 

 

 

(W

-

= tat (X

-

рх)

+

a 2 ( Y - l i Y ) +

. . . ] 2 =

 

 

=

а\ (X -

u . x ) 2 +

a\{Y

-

u , r ) 2 +

. . .

+

2а,а2

(X

-

u.x ) (Y -

 

 

 

 

 

 

 

 

 

 

 

— ц у )

+ . . . .

Теперь вычислим дисперсию

W,

используя

это равенство

Ѵаг

{W} = % {{W — M 2 } =

 

 

 

 

 

 

 

 

=

a\ ЩХ -

цх)*}

+

à&{(Y

- Fr)2}

+

. . .

+

 

 

 

+

іагЦ(Х

-

\ix)

(Y

-

цу)}

+

 

(2.2.9)

В частном случае, когда все последовательные пары случай­ ных величин независимы (разд. 2.2.5), перекрестные члены в равен­ стве (2.2.9) исчезают и оно сводится к

Ѵаг

{W} - а\ Ѵаг {X} + а\ Ѵаг {У} + . . . .

(2.2.9а)

Положительное значение квадратного корня из дисперсии

называется

стандартным (средним квадратическим)

отклонением

и будет обозначаться ах (t). Если функция X (t) стационарна,

функциональная зависимость от t исчезает. Относительное

откло­

нение

(коэффициент

вариации) — безразмерная форма

стандарт­

ного

отклонения,

характеризующая относительное

рассеяние

величины X (t):

Автоковариацией случайной функции X (t) называется ковариация случайных функций X 4) и X (t2):

<Ухх (ti, h) =

%{[Х (h) -

[ix

(t,)] IX

(h) - p x (t2)}.

(2.2.10)

Д л я стационарного

ансамбля

 

 

 

 

 

<Ухх (т) =

г х х

(т) -

у?х.

(2.2.10а)


Распределения

вероятности и выборочная

статистика

43

2.2.4. Взаимная корреляционная

функция

 

Зависимость одной случайной функции X (t) от другой Y (t)

характеризуется взаимной корреляционной функцией этих функций

гХу (k, tz) = %{Х (tt) Y (t2)} = rYX (t2, h) = oo oo

=

j j жіф (ж, y; tu t2) dx dy.

(2.2.11)

 

— OO — O O

 

Заметим, что величина r x x

не является случайной, но может зави­

сеть от времени. Две случайные величины называются

некоррели-

•Х(і)

 

Ф и г .

2.2.3.

В з а и м н а я

к о р р е л я ц и о н н а я ф у н к ц и я .

 

рованными

*), если rXY

(tu

t2) =

Цх (U)

(^г)> и ортогональными,

если rXY

(tu t2)

0.

Д л я

стационарных

ансамблей,

используя

равенство

(2.1.9), имеем

 

 

 

 

 

 

 

гхг

(h,

h)

=

rXY (т) =

rYX (-%).

(2.2.12)

На фиг. 2.2.3 изображена корреляционная диаграмма для двух

случайных функций

X (it) и У (t). Величина rXY

(т) не обладает

максимумом при т =

0, как это имеет место для г х х

(т), и в отличие

от последней не является четной функцией т. Но при вычислении

корреляционных

функций rXY

(т) и rYX

(т) необходимо

провести

 

*) Две случайные величины X

и У

некоррелированы,

если

%

{XY}

=

=

%

{X}

% {У}, и

независимы, если р

(х, у)

— р (х) р (у).

Е с л и

величины

X

и

У независимы,

то

они т а к ж е

и некоррелированы (разд. 2.2.1).

Е с л и

%

{XY}

= 0, то X и Y

ортогональны . Некоррелированность — более

слабое

условие, чем независимость, потому что дл я некоррелированных

X

и

У,

вообще

говоря, % {/ (X) g (У)} ф

% {/ ( X ) } g

{g ( У ) } .

Н о

если

вели ­

чины

X

и У независимы, то g {f

(X) g (Y)}

=

S {f (X)}

<? {g

 

(Y)}.