Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 09.04.2024
Просмотров: 732
Скачиваний: 2
Линейные |
модели с несколькими |
переменными |
365 |
Если для всех откликов наблюдения Yri и Ysj статистически независимы, то совместная плотность, распределения вероятности для всех n X V наблюдений аналогична выражению (5.1.11):
р(Уі, |
. . . , У 0 |
| х , |
ß, Г ) - А ; * е х р { - 1 [ е / . . . е Л Г - ^ Г ] } , |
(5.5.3) |
||||||
где к* |
— нормировочная постоянная, |
которая |
в дальнейшем не |
|||||||
потребуется, |
а |
Г — ковариационная |
матрица |
между |
моделями: |
|||||
|
|
|
|
|
|
|
|
0*1в |
|
|
|
|
|
|
°"l2 |
°22 |
• |
0*20 |
|
|
|
|
|
|
|_ |
|
Ю |
02ѵ |
• |
0* V J |
|
|
|
|
|
|
С Т |
|
|
|
в |
|
|
(Следует помнить, что ковариации между моделями не обязательно
равны |
нулю.) |
|
|
|
|
Собрав данные, будем рассматривать наблюдения как |
заданные |
||||
величины, |
а параметры |
ß — как переменные. Тогда |
функция |
||
правдоподобия_|равна |
|
|
|
||
£ ( ß | y i , |
• • •. У»; х . Г) |
= |
п |
|
|
|
|
V |
V |
|
|
= к*ехѴ |
{ - } 2 2 ffr,[_S ( ^ - - П г | ) ( Г « 1 - г | . 0 ] } . |
(5-5-4) |
|||
|
|
r=l s=l |
i=l |
|
где crrs — элементы матрицы Г - 1 . Заменим матричные обозначения в экспоненте формулы (5.5.3) на эквивалентное суммирование по элементам. Так как двойное суммирование по г и s дает положи тельную величину, требуется минимизировать ее по ß.
Чтобы минимизировать двойную сумму по г и s, необходимо оценить элементы матрицы Г, например, из повторных экспери ментов для каждой модели:
2 |
(Yu-Ytf |
|
4 = * " = J = L 7= 1 |
. |
„2_^ |
_ |
2 |
-(T1 rj-Yr)* |
3=1 |
|
||
«12 = |
0*12 = |
2 |
{Yii-YÙ{Y,)~Y2) |
|
|
з=1 |
p - i |
|
|
|
|
|
|
2 |
ÇYrj-Yr)<y.J-Y.) |
|
|
j = l |
|
r
366 Глава 5
где |
|
YT = |
(Up)j}YTj. |
|
3 = 1 |
Если ошибки, связанные с наблюдениями различных зависи мых переменных, имеют разные дисперсии, но можно принять, что Grs равны нулю при всех г Ф s, то требуется минимизировать лишь
|
V |
п |
|
г|>і= |
2! |
S Wi{Yri-4\Tiy, |
(5.5.5) |
< |
r=l |
i=l |
|
где
_ 1 — 1
Это эквивалентно минимизации взвешенного следа матрицы
|
|
|
|
|
|
|
|
|
(5.5.6) |
где eTEs= |
2 {Yri — y\ri){YSi — r\si). |
При ars |
= 0 корреляция |
между |
|||||
|
|
i=l |
|
|
|
|
|
|
|
различными откликами от Y u |
до У„г в одном эксперименте |
отсут |
|||||||
ствует. Каждая величина с> представляет собой |
дисперсию для |
||||||||
подгонки модели г и ее оценкой служит s£. Помимо |
оценок |
пара |
|||||||
метров из условий |
минимума |
выражения (5.5.5) получается |
|||||||
и другая |
полезная |
информация. Они дают: |
|
|
|||||
1) |
величины si., |
оценки |
дисперсий |
параметров; |
|
||||
2) |
величины остатков между измеренными и оцененными значе |
||||||||
ниями |
зависимой |
переменной. |
or? одинаковы, минимизация tyt |
||||||
Наконец, если |
все дисперсии |
есть то же самое, что минимизация следа матрицы (5.5.6). Пред полагается, что если элементы матрицы Г не могут быть оценены, но известно, что они не равны нулю, то нужно минимизировать детерминант матрицы -ф [10].
В общем случае следует использовать один из вышеприведен ных критериев в зависимости от того, что известно эксперимента тору о ненаблюдаемых ошибках в зависимых переменных модели.
Д л я получения оценок параметров моделей с несколькими зави симыми переменными можно использовать и ряд других крите риев:
1.Максимизируется квадрат наименьшего коэффициента кор реляции.
2.Максимизируется квадрат наибольшего коэффициента кор реляции.
Линейные |
модели с несколькими |
переменными |
367 |
3.Максимизируется сумма квадратов коэффициентов корре ляции.
4.Максимизируется квадрат произведения коэффициентов кор реляции.
Критерий 3 дает наилучший средний множественный коэф фициент корреляции. Выражение для квадрата оценки множе ственного коэффициента корреляции имеет вид
2 m ( У Г - - У Г ) 2
Р я |
— " |
Z |
~ ' |
|
2 |
m |
( У І - У ) 2 |
|
г=1 |
|
|
a сумма квадратов оценок множественного коэффициента корре ляции равна
Ф 2 = 2 РІ- |
(5-5.7) |
г=1 |
|
Для получения оценок коэффициентов ßf e в линейных моделях можно продифференцировать ф 2 по каждому из коэффициентов, приравнять нулю полученные выражения и совместно решить эти уравнения. Этот метод весьма прост, хотя и требует утомительных алгебраических расчетов. Коэффициенты в нелинейных моделях можно оценить итерационными методами оптимизации, описан ными в гл. 6.
Чтобы определить, адекватно ли описывает экспериментальные данные некоторая модель с несколькими зависимыми переменными, можно составить отношение дисперсий
^РминДи — m) s2
где m — полное число определяемых коэффициентов, и провести соответствующую проверку. При этом остатки должны быть слу чайно распределены, некоррелированы и не содержать выбросов (гл. 7).
5.6. |
О Ц Е Н И В А Н И Е П Р И |
С Л У Ч А Й Н Ы Х |
З А В И С И М О Й |
|
|
И Н Е З А В И С И М О Й П Е Р Е М Е Н Н Ы Х |
|
||
Задачи |
оценивания параметров в эмпирической модели, когда |
|||
некоторые |
независимые переменные, как и |
зависимые |
перемен |
|
ные являются случайными |
величинами, |
возникают |
довольно |
часто; подобная задача для модели с одной независимой перемен ной кратко рассматривалась в разд. 4.5.
Один из подходов к оцениванию в случае, когда несколько переменных является случайными величинами, называется рекур-
368 |
Глава S |
рентным |
методом [11]. Можно задать вопрос: если имеется много |
случайных переменных, то по какому направлению следует мини мизировать сумму квадратов? Как видно из фиг. 4.2.2, в случае одной зависимой случайной переменной можно выбрать лишь одно направление, и оно задается самой величиной Y. Дл я много мерной модели вполне удовлетворительного ответа на поставлен
ный |
вопрос дать нельзя. Однако при рекуррентной структу |
ре |
ковариационная матрица ошибок для любого набора дан |
ных диагональна, а матрица коэффициентов совместных случай
ных переменных по одну из сторон |
от диагонали содержит одни |
|||
нули. |
|
|
|
|
Исследуем следующую структуру: |
|
|
||
|
|
9 |
|
|
Yi |
= |
S |
YiftZfe + |
ej, |
|
|
h=i |
|
|
|
|
? |
|
|
|
|
/1=1 |
|
|
|
|
« |
|
(5.6.1) |
ßsiJ/i + Р32У2 + |
= |
Ii |
VshXh + |
Zs, |
Я
ß«#l + ßJ2#2 + • • • + Yl = S Утки + Bh
fc=i
где Yt — наблюдаемые случайные переменные, — детермини рованные переменные, значения которых заранее предопределены, ßffe и Ytk — коэффициенты, которые требуется оценить, a st — независимые ненаблюдаемые случайные величины с % {ег } = О
ипостоянными конечными дисперсиями и ковариациями. Параметры ß и у можно последовательно оценить с помощью
метода наименьших квадратов по следующей рекуррентной схеме. В первое уравнение входит единственная случайная переменная Y t
и параметры уц, у 1 2 , . . ., 7і? можно оценить, минимизируя |
сумму |
|||||||
квадратов по направлению Y^. Затем, подставляя во второе |
урав |
|||||||
нение величину Yи |
определенную по первому уравнению, т. е. г/і = |
|||||||
= Yi, |
и рассматривая У 2 как случайную зависимую |
переменную, |
||||||
можно |
оценить параметры ß 2 1 , |
у21, |
у22, . . ., |
y2q, |
минимизируя |
|||
сумму квадратов по направлению Y2. |
Повторение этой процедуры |
|||||||
для каждой |
из / |
случайных |
переменных |
позволяет оценить |
||||
в последнем |
уравнении все параметры. Насколько |
удовлетвори |
тельными являются обычные статистические выводы из последнего уравнения, основанные на сумме квадратов, известно плохо.
В литературе, список которой приведен в конце этой главы, обсуждаются некоторые методы, используемые в экономике для
Линейные модели с несколькими переменными 369
исследования ситуаций, когда некоторые из независимых пере менных являются случайными величинами.
Представляет также интерес обсудить следствия оценивания параметров для моделей типа (5.1.2) методом наименьших квадра тов, несмотря на то что непосредственное применение этого
метода дает оценки с нежелательными статистическими |
характе |
||
ристиками. Керридж [12] |
рассматривал |
модель |
|
Yi = |
ß'0+ Xfß - f |
eh |
(5.6.2) |
в которой переменные Y, Хи Х2, . • -, Xq имеют совместное нормальное распределение вероятности. Д л я случая, когда коэф фициенты в модели (5.6.2) оценивались обычным методом наи меньших квадратов, а затем производилось еще одно наблюдение, Керридж получил следующее выражение для ошибки предска зания:
|
|
Ап+і — (Хп+і — |
Yn+1), |
|
|
где Yn+i |
— правильное предсказанное |
значение Y |
для (п + 1)-го |
||
набора |
Х{, a Y n + i |
— предсказанное |
значение |
Y, |
полученное |
в предположении, |
что переменные Xt |
не являются |
случайными |
величинами. Опустим здесь детальный вывод распределения
вероятности для Ап +і и приведем лишь окончательный |
результат: |
|||
A n + 1 = £ / a ( l + - ) |
( |
- ^ f - ) |
, |
(5.6.3) |
где U — нормированная нормально |
распределенная |
случайная |
величина, а индексы при %2 указывают соответствующие числа степеней свободы.
Для практических целей вместо значения Ап +і больший инте рес представляет средний квадрат ошибки
Таким образом, если п велико, а число независимых переменных q
мало, то дисперсия |
величины Yn+i |
равна |
|
|
Var { У п + 1 } « о 1 + |
Var {І>п + 1 },- |
|
где Var {Yn+i} |
можно |
подсчитать по формулам разд. 5.2. Однако |
если |
п мало и равно, например, 10, |
a q велико, например состав |
||
ляет |
5, то дисперсия |
ошибки Ап +і |
становится большой: |
|
|
eln+i |
= eî- |
1,1.4 |
= 2,93а1. |
Действительно, при п — q = |
2 дисперсия о*дп + 1 обращается |
вбесконечность.