Файл: Френкс, Л. Теория сигналов.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 16.10.2024

Просмотров: 164

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Важно заметить, что совокупность значений х (t) в (7.1) не следу­ ет трактовать как скалярную величину. Для большинства практиче­ ских приложений случайные значения х (t) можно рассматривать как вектор в гильбертовом пространстве [1, 2]. При этом параметр t про­ сто отмечает точки в этом пространстве. Обычно, конструируя некото­ рую систему, мы интересуемся ее характеристиками для всего ансамбля сигналов, а не для отдельных реализаций, выбранных из этого ан­ самбля. Можно выявить «усредненные» характеристики системы, вы­ числив соответствующие статистические средние значения по отноше­ нию к исходным случайным переменным. Эти средние значения назы­ ваются ожиданиями*>.

Таким образом, в рассматриваемых задачах поведение случайного процесса во времени характеризуется поведением различных ожида­ ний как детерминированных функций времени, но не формой кон­ кретного сигнала. В этом состоит существенное различие между опи­ санием детерминированных и случайных сигналов. Игнорирование такого различия нередко приводит к ошибкам.

Мы предполагаем, что читатель знаком с основами теории вероят­ ности и случайных процессов [3]. Следующий параграф дает дишь сводку основных положений, которые будут использоваться в даль­ нейшем.

7.2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ОЖИДАНИЯ

Случайная величина х (мы временно опустим индекс f) есть функ­ ция, определенная на пространстве выборок й. Пространство выборок

й — это множество событий й = {со}, причем скалярная функция х (о) называется реализацией случайной величины х. Пространство выборок характеризуется также законом вероятности, который ставит в соот­ ветствие различным подмножествам из й некоторые вероятности. Ожидаемое значение Е [х] случайной величины можно интерпретиро­ вать как линейный функционал от функции х, определяемый эвристи­ чески в виде

£[х] = 2х((о)Р(со); (о

(7.2)

где Р: й -> R есть вероятностная функция, определенная на й. Средний квадрат величины х есть квадратичный функционал от х, который можно трактовать как квадрат нормы х:

£ [x2] = 2 x 2(co)P(co)==||xf.

(7.3)

СО

 

Некоторое неудобство соотношений (7.2) и (7.3) связано с тем, что индекс суммирования может пробегать несчетное множество значений и, кроме того, обычно нет физически ясного механизма, который свя-

*> Точнее, математическими ожиданиями. — Прим. ред.

174


зывает случайные значения и их отображения в пространстве выборок*). К счастью, имеется другое описание, которое полностьк/характеризует случайные величины через плотность вероятности. Это описание несколько затемняет роль гильбертова пространства как пространства случайных величин. Тем не менее ожидания определяются как скаляр­ ные произведения (линейные или квадратичные функционалы), лег­ ко выражаемые через плотность вероятности.

Вещественную случайную величину х можно полностью охаракте­ ризовать вероятностью события, состоящего в том, что х (со) ^ а для всех вещественных значений а. Плотность вероятности рх (g) определяется условием

а

Р [*(ю )< а1= $ Px(t)dt.

(7.4)

—оо

 

Если х принимает некоторые значения аъ аг, ... с конечной вероятно­ стью pi, р2> т° это приводит к появлению б-функций в формуле плот­ ности вероятности [3]. Но указанные б-функции можно выделить в записи, оставляя рх (|) регулярной:

Р*(£) = 2i М ( £ - а |) + Р*(£)-

(7.5)

Ожидаемое значение случайной величины, т. е. ее среднее значение, определяется соотношением

оо

Е [х[ = J lpx(l)dl = x.

(7.6)

—ОО

 

Выражение (7.6) часто используется как удобная символика для опре­ деления ожидания. Средний квадрат величины х дается формулой

оо

£ [х 2] =

$ l*px(l)dt = x \

(7.7)

 

— оо

 

Другой важный статистический параметр — средний квадрат цен­

трированной случайной величины (х — х) — называется

дисперсией

и обозначается о*:

 

 

ах = £ [(х —х)2] = £

[х2] — [хх]+ Д [х2] = х2—х2.

(7.8)

*> Выше автор использует недостаточно точную терминологию, й = {ш} есть вероятностное пространство или пространство событий, т. е. гипотетических первичных актов (случайных, характеризуемых вероятностью Р (со)), порождаю­ щих, в свою очередь, случайные величины х (со) или случайные процессы х (t, со) (см. ниже). Последние есть детерминированные функции от со, а для случайных процессов также от t; они называются реализациями или выборочными функция­ ми, а их совокупность образует пространство выборочных функций или, короче, пространство выборок (см., например, Г. Крамер и М. Лидбеттер «Стационарные случайные процессы». Изд-во «Мир», 1969). Лишь позднее, установив взаимно­ однозначное соответствие между событиями и выборочными функциями, можно, в известном смысле, отождествлять пространство событий с пространством вы­ борок. — Прим. ред.

175


Случайная величина может быть также задана своей характеристи­ ческой функцией:

оо

 

@д.([х) = £ [е ^ х]= J px(Qeirtdl; р 6 R

(7.9)

Очевидна тесная связь характеристической функции и преобразо­ вания Фурье:

(р) = Рх (—р/2п).

Две или более случайных величин называются совместно распределен­ ными, если они являются функциями, определенными на одном и том же пространстве выборок и могут быть описаны совместной плотностью вероятности

 

Р [ху(со) < аъ х2 (со) <

а2, ..., хп(со) <

ап]=

 

a t

а г

а п

 

 

 

— $

^

§ Pxi хг . . ,хп (Ei>

••• > £n)

... (Щ,п .

(7 .Ю )

Совместно распределенные^случайные величины могут быть также за­ даны совместной характеристической функцией

й.X , Х г . . . X > х ,

р2,...,

Jin) = £[ e /

+ ^х„)]

ОО

ОО

оо

 

 

 

= S

S

•" S

P *i

(£li ^2>

> Еп) X

X е' (**» Е» + 1*» Б.н

Ч- % п) ^

(7.11)

Кроме средних значений и дисперсий отдельных случайных ве­ личин, нас часто интересует ожидаемое значение произведения двух случайных величин хх и х2. Эта величина называется корреляцией, она имеет выражение

оо

оо

 

 

 

Е [xi Хг1 = $

^ ^

PXi Хг(^1’ ^2)

 

rf^2 —

а2

, (Рх, р2) 1*1 =

0

(7.12)

dpi дц2

 

 

1*2=

0

 

Понятие корреляции приводит к желаемой геометрической интерпре­ тации пространства случайных величин. Действительно, соотношение (7.12) удовлетворяет условиям (2.28), характеризующим скалярное произведение величин х2 и х2, а норма и расстояние естественным обра­ зом порождаются этим скалярным произведением. Чтобы показать, что £ [х2 х2] удовлетворяет свойствам (2.28), заметим, что для вещест­ венных векторов свойство (2.28а) скалярного произведения требует лишь симметрии, которая, очевидно, имеет место. Свойство (2.286) — требование линейности — удовлетворяется в силу следующего:

£ [(ai xi + a 2 х2) х3] =

176


 

ОО

ОО

оо

 

 

 

§

§

§ ( а 1

" Ь Я 2 ? г ) S s Р х , х г ха ( g X , £,2 > £ з ) ^ 1 d %2 d %3 -

 

 

— оо — оо — оо

 

 

 

““

 

 

 

= a i

^1 ^ 3 Р х , X , ( g X >

g 3 ) d h d l s + а 2 ^ g 2 ^ 3 Р х г X, ( g 2 5 з ) ^ 2 ^ 3

=

 

—•оо

 

 

— оо

 

 

 

 

=

а1£']х1х3]+ос2£'[х2х3].

(7.13)

В (7.13) мы использовали основное свойство совместной плотности вероятности

00

^ р х 1 хг х , ( g X > h , ? з ) d £ x —■ Р х г х а ( | 2 > ? з ) -

-00

Наконец, для доказательства свойства (2.28в), заметим, что

00

 

 

Е[х\]= J ? Pxt(l)db> 0.

(7.14)

Здесь учтено, что рх1 (|) — неотрицательная

функция.

Кроме того,

Е [xf] равно нулю в том и только в том случае,

если хх отлично от нуля

с нулевой вероятностью.

 

 

Определив скалярное произведение случайных величин, мы можем ввести расстояние между ними как среднеквадратическую разность:

d (хх, х2) = ||хх—х21| = [(хх—Ха)*]}1/2.

(7.15)

Если корреляция двух случайных величин равна нулю, то говорят, что они ортогональны. Корреляция центрированных случайных ве­

личин хх — хх и х2 — х2 называется ковариацией величин хх и х2:

т12 = Е [(хх—хх)(х2—х^)] = £ [х хх2] —хг х2.

(7.16)

Если ковариация равна нулю, то говорят что величины линейно независимы. Из (7.16) следует, что ортогональные случайные величины линейно независимы, если их средние значения равны нулю.

Более сильный тип независимости имеет место, когда независи­

мы события [*х (со) ^ ах]

и [х2 (со) ^ а2] для всех ах и а2. Говорят,

что случайные величины,

обладающие этим свойством, статистически

независимы, их совместная плотность распределения характеризуется свойством

Р х , х г ( g i , Ы = Р х , Рх, ( Ы для всех 1Х, 1 2 .

(7.17)

Заметим, что из (7.17) следует, что Е [хх, х2]= х хх2, поэтому статисти­ ческая независимость означает линейную независимость. Обратное, вообще говоря, неверно, так как статистическая независимость есть более сильное утверждение, нежели линейная независимость.

177


7.3.СЛУЧАЙНЫЕ ПРОЦЕССЫ

В(7.1) мы определили случайный процесс как временную после­ довательность случайных значений. Другая точка зрения заключается

втом, что процесс трактуется как ансамбль сигналов, детермини­ рованных функций времени, графически изображаемых некоторыми кривыми, причем каждой такой кривой соответствует одна из точек пространства выборок, на котором определена совместная плотность распределения случайных значений. Другими словами, каждый сиг­ нал есть попарная совокупность скалярных величин {х (t, со), t), при­

чем t £Т , и, что особенно важно, со ( й фиксировано.

Каждый сигнал, полученный таким образом, называется реали­ зацией случайного процесса. Реализация, которую мы обозначим хм, есть вектор в пространстве функций времени, но не в пространстве случайных величин. При характеристике свойств случайных процес­ сов обычно придерживаются первой точки зрения, как на временную последовательность случайных значений. Однако в некоторых зада­ чах (например, в § 7.5) полезно иметь в виду обе точки зрения.

Случайный процесс можно описать совместной плотностью вероят­ ности некоторого множества его случайных значений. Многие из про­ цессов с непрерывным временем обладают тем свойством,что плотно­ сти распределения инвариантны по отношению к сдвигам во времени.

Процесс называется стационарным в узком смысле, если

PXlx2---xn (l 1 2 , = ь£г. ••• >U> (7-18)

где хг = х (/г); хг = х (tt + т) для любого т, причем здесь могут быть взяты любые значения { /j из Т.

Автокорреляционная и автоковариационная функции

Независимо от того, стационарный процесс или нет, мы часто бу­ дем иметь дело со свойствами пар его случайных значений. В этих слу­ чаях удобно ввести статистики второго порядка. В частности, кор­ реляция между всеми парами случайных значений часто служит под­ ходящий характеристикой процесса. Эта корреляция зависит от мо­ ментов времени tx и t2 и называется автокорреляционной функцией

kxx (к, к) процесса х:

 

kxx (*i, h) = Е [х (4)х (/2)].

(7.19)

Автокорреляционная функция центрированного случайного процес­

са, получаемого при вычитании средних значений Е [х (01 = х (t), назы­ вается автоковариационной функцией тхх (t1} t2) процесса

mxx{h, t2) =£[{х (Д) —х ДО} (х (/2)—х(Д]}| =

 

= Kx{tx,h)— х(^)х(^2).

 

(7.20)

Наконец, kxx (/, t) есть средний квадрат

процесса

и тхх

(/, t)

его дисперсия. Заметим, что обе величины

зависят,

в общем

случае,

от времени.

 

 

 

178