Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 732

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Линейные

модели с несколькими

переменными

365

Если для всех откликов наблюдения Yri и Ysj статистически независимы, то совместная плотность, распределения вероятности для всех n X V наблюдений аналогична выражению (5.1.11):

р(Уі,

. . . , У 0

| х ,

ß, Г ) - А ; * е х р { - 1 [ е / . . . е Л Г - ^ Г ] } ,

(5.5.3)

где к*

— нормировочная постоянная,

которая

в дальнейшем не

потребуется,

а

Г — ковариационная

матрица

между

моделями:

 

 

 

 

 

 

 

 

0*1в

 

 

 

 

 

 

°"l2

°22

0*20

 

 

 

 

 

|_

 

Ю

02ѵ

0* V J

 

 

 

 

 

 

С Т

 

 

 

в

 

 

(Следует помнить, что ковариации между моделями не обязательно

равны

нулю.)

 

 

 

Собрав данные, будем рассматривать наблюдения как

заданные

величины,

а параметры

ß — как переменные. Тогда

функция

правдоподобия_|равна

 

 

 

£ ( ß | y i ,

• • •. У»; х . Г)

=

п

 

 

 

V

V

 

= к*ехѴ

{ - } 2 2 ffr,[_S ( ^ - - П г | ) ( Г « 1 - г | . 0 ] } .

(5-5-4)

 

 

r=l s=l

i=l

 

где crrs — элементы матрицы Г - 1 . Заменим матричные обозначения в экспоненте формулы (5.5.3) на эквивалентное суммирование по элементам. Так как двойное суммирование по г и s дает положи­ тельную величину, требуется минимизировать ее по ß.

Чтобы минимизировать двойную сумму по г и s, необходимо оценить элементы матрицы Г, например, из повторных экспери­ ментов для каждой модели:

2

(Yu-Ytf

 

4 = * " = J = L 7= 1

.

„2_^

_

2

-(T1 rj-Yr)*

3=1

 

«12 =

0*12 =

2

{Yii-YÙ{Y,)~Y2)

 

 

з=1

p - i

 

 

 

 

 

2

ÇYrj-Yr)<y.J-Y.)

 

 

j = l

 


r

366 Глава 5

где

 

YT =

(Up)j}YTj.

 

3 = 1

Если ошибки, связанные с наблюдениями различных зависи­ мых переменных, имеют разные дисперсии, но можно принять, что Grs равны нулю при всех г Ф s, то требуется минимизировать лишь

 

V

п

 

г|>і=

2!

S Wi{Yri-4\Tiy,

(5.5.5)

<

r=l

i=l

 

где

_ 1 1

Это эквивалентно минимизации взвешенного следа матрицы

 

 

 

 

 

 

 

 

 

(5.5.6)

где eTEs=

2 {Yri y\ri){YSi r\si).

При ars

= 0 корреляция

между

 

 

i=l

 

 

 

 

 

 

 

различными откликами от Y u

до У„г в одном эксперименте

отсут­

ствует. Каждая величина с> представляет собой

дисперсию для

подгонки модели г и ее оценкой служит s£. Помимо

оценок

пара­

метров из условий

минимума

выражения (5.5.5) получается

и другая

полезная

информация. Они дают:

 

 

1)

величины si.,

оценки

дисперсий

параметров;

 

2)

величины остатков между измеренными и оцененными значе­

ниями

зависимой

переменной.

or? одинаковы, минимизация tyt

Наконец, если

все дисперсии

есть то же самое, что минимизация следа матрицы (5.5.6). Пред­ полагается, что если элементы матрицы Г не могут быть оценены, но известно, что они не равны нулю, то нужно минимизировать детерминант матрицы -ф [10].

В общем случае следует использовать один из вышеприведен­ ных критериев в зависимости от того, что известно эксперимента­ тору о ненаблюдаемых ошибках в зависимых переменных модели.

Д л я получения оценок параметров моделей с несколькими зави­ симыми переменными можно использовать и ряд других крите­ риев:

1.Максимизируется квадрат наименьшего коэффициента кор­ реляции.

2.Максимизируется квадрат наибольшего коэффициента кор­ реляции.


Линейные

модели с несколькими

переменными

367

3.Максимизируется сумма квадратов коэффициентов корре­ ляции.

4.Максимизируется квадрат произведения коэффициентов кор­ реляции.

Критерий 3 дает наилучший средний множественный коэф­ фициент корреляции. Выражение для квадрата оценки множе­ ственного коэффициента корреляции имеет вид

2 m ( У Г - - У Г ) 2

Р я

— "

Z

~ '

 

2

m

( У І - У ) 2

 

г=1

 

 

a сумма квадратов оценок множественного коэффициента корре­ ляции равна

Ф 2 = 2 РІ-

(5-5.7)

г=1

 

Для получения оценок коэффициентов ßf e в линейных моделях можно продифференцировать ф 2 по каждому из коэффициентов, приравнять нулю полученные выражения и совместно решить эти уравнения. Этот метод весьма прост, хотя и требует утомительных алгебраических расчетов. Коэффициенты в нелинейных моделях можно оценить итерационными методами оптимизации, описан­ ными в гл. 6.

Чтобы определить, адекватно ли описывает экспериментальные данные некоторая модель с несколькими зависимыми переменными, можно составить отношение дисперсий

^РминДи — m) s2

где m — полное число определяемых коэффициентов, и провести соответствующую проверку. При этом остатки должны быть слу­ чайно распределены, некоррелированы и не содержать выбросов (гл. 7).

5.6.

О Ц Е Н И В А Н И Е П Р И

С Л У Ч А Й Н Ы Х

З А В И С И М О Й

 

И Н Е З А В И С И М О Й П Е Р Е М Е Н Н Ы Х

 

Задачи

оценивания параметров в эмпирической модели, когда

некоторые

независимые переменные, как и

зависимые

перемен­

ные являются случайными

величинами,

возникают

довольно

часто; подобная задача для модели с одной независимой перемен­ ной кратко рассматривалась в разд. 4.5.

Один из подходов к оцениванию в случае, когда несколько переменных является случайными величинами, называется рекур-


368

Глава S

рентным

методом [11]. Можно задать вопрос: если имеется много

случайных переменных, то по какому направлению следует мини­ мизировать сумму квадратов? Как видно из фиг. 4.2.2, в случае одной зависимой случайной переменной можно выбрать лишь одно направление, и оно задается самой величиной Y. Дл я много­ мерной модели вполне удовлетворительного ответа на поставлен­

ный

вопрос дать нельзя. Однако при рекуррентной структу­

ре

ковариационная матрица ошибок для любого набора дан­

ных диагональна, а матрица коэффициентов совместных случай­

ных переменных по одну из сторон

от диагонали содержит одни

нули.

 

 

 

 

Исследуем следующую структуру:

 

 

 

 

9

 

 

Yi

=

S

YiftZfe +

ej,

 

 

h=i

 

 

 

 

?

 

 

 

 

/1=1

 

 

 

 

«

 

(5.6.1)

ßsiJ/i + Р32У2 +

=

Ii

VshXh +

Zs,

Я

ß«#l + ßJ2#2 + • • • + Yl = S Утки + Bh

fc=i

где Yt — наблюдаемые случайные переменные, — детермини­ рованные переменные, значения которых заранее предопределены, ßffe и Ytk — коэффициенты, которые требуется оценить, a st независимые ненаблюдаемые случайные величины с % {ег } = О

ипостоянными конечными дисперсиями и ковариациями. Параметры ß и у можно последовательно оценить с помощью

метода наименьших квадратов по следующей рекуррентной схеме. В первое уравнение входит единственная случайная переменная Y t

и параметры уц, у 1 2 , . . ., 7і? можно оценить, минимизируя

сумму

квадратов по направлению Y^. Затем, подставляя во второе

урав­

нение величину Yи

определенную по первому уравнению, т. е. г/і =

= Yi,

и рассматривая У 2 как случайную зависимую

переменную,

можно

оценить параметры ß 2 1 ,

у21,

у22, . . .,

y2q,

минимизируя

сумму квадратов по направлению Y2.

Повторение этой процедуры

для каждой

из /

случайных

переменных

позволяет оценить

в последнем

уравнении все параметры. Насколько

удовлетвори­

тельными являются обычные статистические выводы из последнего уравнения, основанные на сумме квадратов, известно плохо.

В литературе, список которой приведен в конце этой главы, обсуждаются некоторые методы, используемые в экономике для


Линейные модели с несколькими переменными 369

исследования ситуаций, когда некоторые из независимых пере­ менных являются случайными величинами.

Представляет также интерес обсудить следствия оценивания параметров для моделей типа (5.1.2) методом наименьших квадра­ тов, несмотря на то что непосредственное применение этого

метода дает оценки с нежелательными статистическими

характе­

ристиками. Керридж [12]

рассматривал

модель

 

Yi =

ß'0+ Xfß - f

eh

(5.6.2)

в которой переменные Y, Хи Х2, . • -, Xq имеют совместное нормальное распределение вероятности. Д л я случая, когда коэф­ фициенты в модели (5.6.2) оценивались обычным методом наи­ меньших квадратов, а затем производилось еще одно наблюдение, Керридж получил следующее выражение для ошибки предска­ зания:

 

 

Ап+і — (Хп+і

Yn+1),

 

 

где Yn+i

— правильное предсказанное

значение Y

для (п + 1)-го

набора

Х{, a Y n + i

— предсказанное

значение

Y,

полученное

в предположении,

что переменные Xt

не являются

случайными

величинами. Опустим здесь детальный вывод распределения

вероятности для Ап +і и приведем лишь окончательный

результат:

A n + 1 = £ / a ( l + - )

(

- ^ f - )

,

(5.6.3)

где U — нормированная нормально

распределенная

случайная

величина, а индексы при %2 указывают соответствующие числа степеней свободы.

Для практических целей вместо значения Ап +і больший инте­ рес представляет средний квадрат ошибки

Таким образом, если п велико, а число независимых переменных q

мало, то дисперсия

величины Yn+i

равна

 

Var { У п + 1 } « о 1 +

Var {І>п + 1 },-

где Var {Yn+i}

можно

подсчитать по формулам разд. 5.2. Однако

если

п мало и равно, например, 10,

a q велико, например состав­

ляет

5, то дисперсия

ошибки Ап

становится большой:

 

eln+i

= eî-

1,1.4

= 2,93а1.

Действительно, при п q =

2 дисперсия о*дп + 1 обращается

вбесконечность.