Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 09.04.2024
Просмотров: 778
Скачиваний: 2
Определение наилучшей модели 479
Элементы обратной матрицы V - 1 обозначаются как Vjk. В этих обозначениях
|
|
|
|
|
|
|
P |
р |
|
(7.5.3) |
|
|
|
|
|
|
|
|
|
|
|
|
|
і=1 |
|
|
|
|
j=i |
ft=i |
|
|
|
|
n |
|
|
|
|
î |
|
|
|
|
|
2 ( У г _ У * ) 2 |
|
|
|
(7.5.4) |
||||
|
|
P |
V |
|
|
|||||
|
|
І=І |
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
p |
p |
|
|
|
(7.5.5) |
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
7=1 ft=l |
|
|
|
|
|
Var{bî} = |
4 ^ |
T / - 1 |
i = l |
|
|
|
|
|
|
|
rfcfe |
p |
p |
|
|
|
|
|
|
||
|
|
S 2*7* |
|
|
p |
p |
|
|||
|
|
|
|
=4* |
|
|
Щ ' (?-5-6> |
|||
|
|
|
|
|
|
2 2 |
||||
|
|
7=1 h=i |
J |
|
|
|
|
|
||
cov{b?,w} =4 ^ m |
S |
2 ^ |
|
|
|
|||||
p |
p |
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
p' |
p |
|
|
|
|
|
= 4, {itt-Wî 2 2 v * } • (7-5-7> |
||||||
|
|
|
|
|
|
|
|
j = i ft=i |
||
Дисперсию |
|
можно |
оценить по формуле |
|
|
|||||
|
|
|
|
|
1 |
|
1 |
• |
|
(7.5.8) |
|
|
У* |
|
и — р + 1 |
P |
Р |
|
|
|
7=1 ft=l
Для проверки гипотезы о том, что величина Ь* отличается от некоторой постоянной у, можно подсчитать
и для некоторого уровня значимости а определить, является ли величина t больше значения <і _ 0 /2, полученного из таблиц для
480 |
Глава. 7 |
n — р степеней свободы. Для проверки различия между разностью двух параметров Ъ* и Ъ* и некоторой постоянной у (возможно, 0) величина t определяется по формуле
t = = |
(&* — big) — у |
[Var {è*} + |
Var{fefe}-2Cov {b*, 6 f e } ] 1 / 2 ' |
Если нулевая гипотеза отвергается, то Ь* и Ъ\ отличны друг от друга и уравнение Y j дает лучшую подгонку, чем Yk. По суще ству эквивалентную проверку можно было бы осуществить, следуя схеме, намеченной в табл. 5.3.2, и последовательно исклю чая Yj из комбинации (7.5.1), проверяя каждый раз, является ли отброшенный член значимым.
Пример 7.5.1. Критерий Уилкса
Для иллюстрации проведения расчетов при использовании критерия Уилкса для модели Y = 2 + х2 + 8 были подготовлены следующие данные:
|
|
1 |
3,1 |
|
|
|
2 |
5,9 |
|
|
|
3 |
11,1 |
|
|
|
4 |
17,8 |
|
|
|
5 |
27,2 |
|
По этим данным |
подгонялись |
две |
линейные модели: |
|
Т]і |
= |
Öоі Ь{\Х\ |
С |
Ху X, |
42 |
= |
^02 ~Ь ^12^2 |
С |
Х2 — X2. |
С помощью методов, описанных в разд. 4.3, были найдены соот ветствующие оценки уравнений регрессии
У 4 = -4,83 + 6,01s, У 2 = 2,20 + 1,00а:2.
Затем были вычислены элементы матрицы V:
н |
|
2 |
Ун) |
(Yt |
- |
Yn) = 1,1883.10s, |
||
|
çrt |
|
|
, |
|
|
||
Vn = |
Vl=i |
= 1,1795-10 |
3 |
|
|
|||
|
|
zl |
|
|
|
|
|
|
F 2 2 |
= |
1,1807-103 |
|
|
|
|
|
|
и обратная |
матрица |
|
|
|
|
|
||
|
|
|
т-г _ i ° ' 1 |
0 0 0 |
1 |
-0,09991 |
||
|
|
|
0,09991 |
0,10065 |
Определение |
наилучшей |
модели |
481 |
Оценки коэффициентов Ь* оказались равными
Ь*
0,120
0,880
Можно заключить, что модель 2 лучше, как и следовало ожидать.
Пример 7.5.2. Выбор из нескольких нелинейных моделей
Пример, основанный на имитированных данных, иллюстрирует трудности, связанные с выбором наилучшей из нескольких нели нейных моделей [17]. Для модели
il = |
10 + 100 (1 - |
е - ° . п и ) |
(а) |
было подготовлено 15 |
экспериментальных точек |
(фиг. П.7.5.2). |
|
Из усеченного (при 2а) нормального |
распределения отбирались |
случайные отклонения с нулевым средним значением и стандарт ным отклонением а и прибавлялись к каждому значению п.
По этим имитированным данным проводилась подгонка пяти
различных |
нелинейных |
моделей: |
||||
1) |
Л = |
ßo + |
ßi |
(1 - |
erb*), |
|
2) |
4 = ßo + ß |
i |
r ^ , |
|
||
3) |
M = |
ßo + |
ßi arctg |
ф2х), |
||
4) |
T) = |
ß 0 |
+ |
ßi t h (ß2 x), |
||
5) |
л = |
ß 0 |
+ |
ßie-fc/*; |
|
соответствующие |
оценки уравнений |
регрессии показаны на |
|
фиг. П.7.5.2. |
|
|
|
Каждое |
уравнение хорошо аппроксимирует данные, и все |
||
кривые по |
форме |
очень похожи друг |
на друга. При увеличении |
ошибки (от о 2 = 0 до о 2 = 100) оценки параметров каждой модели оставались достаточно стабильными, а величина Syt возрастала пропорционально о2 . Ковариации, т. е. недиагональные элементы матрицы Cov {b}, оставались много меньше, чем дисперсии.
Уилкоксон, применив критерий Уилкса к этим пяти уравне ниям регрессии, пришел к выводу, что коэффициенты Ь* не рас полагаются в порядке убывания по мере увеличения s^. Он также
показал, что выбор на основе минимума |
s^. |
является, |
вообще |
|
говоря, лучшим средством определения |
истинной модели, |
чем |
||
с помощью величин Ъ*. Результаты анализа |
приведены |
в |
таб |
|
лице П.7.5.2. |
|
|
|
|
Верхний предел подготовленных |
данных; |
истинное среднее +2<5 |
|
по
100
|
|
|
|
100 |
Ф и г . П.7.5.2. Результаты проверки |
для набора из |
15 подготовленных |
||
|
|
данных при от? = 1 0 0 . |
|
|
|
|
|
1 і |
|
Модель |
|
Уравнение регрессии |
sr |
|
1 |
fl |
=14,3 + 92,4 (1 - |
е-0.115*) |
74,2 |
2 |
f 2 |
= 14,6 + 102,8.0,167*/(1 + ,167Л;) |
113,0 |
|
3 |
? з = 14,8+ 100,3 arctg 0,153ж |
95,2 |
||
|
? 4 |
= 14,8 + 90,7 th 0,0837* |
62,8 |
|
|
? В = 15,1 + 101, О е - 4 - 7 3 / * |
94,7 |