Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 705

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

310

Глава

4

Cramer

H . , Mathematical Methods

of Statistics, Princeton Univ . Press,

Princeton, N . J . , 1954; есть русский перевод: Крамер Г., Математические

методы статистики,

И Л ,

1948.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Davies О. L . , Statistical Methods in Research and Production, 3rd ed.,

Oliver

and Boyd, London, 1958.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Feller

W . . A n

Introduction

to

Probability Theory

and

Its

Applications,

W i l e y ,

JNLY.,

1957.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Fisher

R., Statistical Methods and Scientific Inference,

Oliver

and

Boyd,

London,

1956.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Guest P. G.. Numerical Methods of Curve

Fitting, Cambridge Univ . Press,

Cambridge,

England,

1961.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Natrella M . G.,

Experimental

Statistics,

NBS

Handbook91, U.S. Govern­

ment

Printing Office, Washington, D.C., 1963.

 

 

 

 

 

 

 

 

 

 

 

Plackett R.. Principles of Regression Analysis, Oxford U n i v . Press, Oxford,

England,

1960.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Williams

E. J., Regression

Analysis.

W i l e y ,

N . Y . ,

1959.

 

 

 

 

 

 

 

 

 

 

 

Обе переменные — случайные

величины

 

 

 

 

 

 

Acton

F. S.. Analysis of Straight Line Data,

W i l e y ,

N . Y . , 1959,

Ch.

5.

 

Bartlett M . S.,

Fitting a Straight Line when

Both

Variables are

Subject

to Error,

Biometrics,

5,

 

207

 

(1949).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Basman R. L . , A n Expository Note on Estimation of Simultaneous Structu­

ral

Equations,

 

Biometrics,

 

16, 464

(1960).

 

 

 

 

 

 

 

 

 

 

 

 

 

Berkson J., Are there Two Regressions, J.

Amer.

Stat.

Assn.,

45, 164 (1950).

 

Clutton-Brock M . , Likelihood Distributions for Estimating Functions

when

Both Variables are Subject to Error, Technometrics,

 

9,

261

(1967).

 

 

 

 

 

Cochran W . G., Some Consequences when the

Assumptions for the Analy­

sis

of Variance

 

are

 

not

Satisfied,

Biometrics,

 

3, 22

(1948).

 

 

Edinburgh,

 

Deining W . E., The Application of Least Squares, London,

and

Dublin

Phil.

Mag.,

11, Series

7

(1930).

 

 

 

 

 

 

 

 

 

 

Bio­

 

Eisenhart

 

С ,

The

Assumptions

Underlying Analysis

of

Variance,

 

metrics.

 

3,

1

(1947).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Halperin M . , Fitting of Straight Lines and Prediction when Both Variables

are

Subject

to

 

Error,

J.

Amer.

Stat.

 

Assn.,

56,

657

(1961).

 

 

 

 

 

 

Keeping E. S., Note on Wald's Method of Fitting

a

Straight

Line

when

Both Variables

are

Subject

to

Error,

Biometrics,

12, 445

(1956).

 

 

 

 

 

Kerridge D . , Errors of Prediction in Multiple

Regression w i t h

Stochastic

Regression

Variables,

Technometrics,

 

9,

309

 

(1967).

 

 

 

 

 

 

 

 

 

 

Madansky

 

A . ,

The

F i t t i n g

of

Straight

 

Lines

when

Both

Variables

are

Subject

to

Error,

J.

Amer.

 

Stat.

Assn..

54,

 

173 (1959).

 

 

 

 

 

 

 

 

 

Wald

A . , The

F i t t i n g

 

of Straight Lines

 

when

Both

Variables

are

Subject

to

Error, Ann.

 

Math.

 

Stat.,

11, 284

(1940).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определение

 

формы

функциональной

зависимости

 

 

 

 

 

Davis

D . S., Nomography and Empirical Equations,

Reinhold,

 

N . Y . ,

1955,

pp.

3—79.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Techno­

 

Dolby

J.

 

L . , A Quick Method for Choosing

a

Transformation,

metrics,

5,

317

(1963).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Hoerl

A . E., Fitting Curves to

Data,

in : Chemical

Business

Handbook,

M c G r a w - H i l l ,

N . Y . , 1954.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Johnson L . H . , Nomography and Empirical Equations,

W i l e y ,

 

N . Y . ,

1952,

pp. 95 - 146 .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Lipka

J., Graphical and Mechanical Computation,

Part I I , W i l e y , N . Y . ,

1918,

pp. 120-169.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Running

T. R.,

Empirical

Formulas,

W i l e y ,

N . Y . ,

1917.

 

 

 

 


Линейные модели

с одной

переменной

311

Scarborough J. В . , Numerical Mathematical Analysis, Johns Hopkins

Press, Baltimore, 1958, pp. 455—489;

есть русский

перевод: Скарборо

Д ж . ,

Численные методы математического

анализа,

Г Т

Т И , М., 1934.

 

Оценивание при корреляции остатков

Duncan D . В . , Jones R. H . , Multiple Regression w i t h Stationary Errors,

J.Amer. Stat. Assn., 62, 917 (1967).

Durbin J., Estimation of Parameters i n Time-series Regression Models,

J.Royal Stat. Soc, B22, 139 (1960).

Goldberger

A .

S.,

Economic

Theory,

W i l e y ,

N . Y . ,

1964.

Johnson

J.,

Econometric

Methods,

McGraw - Hill, N . Y . , 1963.

Sargan J. D . , The Maximum Likelihood

Estimation of Economic Relation­

ships w i t h

Auto

Regressive

Residuals,

Econometrica,

29,

414 (1961).

Zellner

A . ,

Econometric

Estimation

w i t h Temporally

Dependent Distur­

bance Terms, Int.

Econ.

Rev.,

2,

2,

164

(1961).

 

 


Глава 5

ЛИ Н Е Й Н Ы Е МОДЕЛИ С НЕСКОЛЬКИМИ НЕЗАВИСИМЫМИ ПЕРЕМЕННЫМИ

Вэтой главе рассматривается точно такая же задача оценива­ ния параметров, как и в гл. 4, однако здесь она усложнена тем, что используется модель с несколькими независимыми перемен­ ными. Пусть даны п наборов экспериментальных данных, получен­ ных по некоторому плану типа описываемых в гл. 8. Как в таком случае можно найти наилучшие оценки параметров предполагае­ мой модели процесса? Как рассчитать доверительные интервалы для этих параметров и как провести проверку гипотез, подобных

гипотезам, рассмотренным в гл. 4? В связи с большим объе­ мом необходимых вычислений возникает и дополнительный вопрос: как для этих расчетов использовать цифровые вычислительные машины? Описываемая здесь процедура оценивания часто назы­

вается множественной

регрессией.

 

 

 

 

 

 

 

 

5.1. О Ц Е Н И В А Н И Е П А Р А М Е Т Р О В

 

 

Будут

оцениваться

параметры

следующей

модели:

 

% {Y

I x)

=

г, = | 0

+ ß, (sj -

хх)

+

ß 2 2 -

х2)

+ . . .

 

. . .

+ ß e ( z Q

-xq)

 

 

 

 

 

 

 

(5.1.1)

или

эквивалентной

ей

модели

 

 

 

 

 

Y

=

ß 0 + ßi (xi Xi) +

ß 2 (x2

— x2)

+ . . .

 

 

 

 

 

 

 

 

 

 

. . . +

ß g [xq — xq)

+ e,

(5.1.1a)

где

8 — ненаблюдаемая

ошибка,

на которую отличается

величи­

на

У от п. Альтернативная

форма

этой же модели такова:

 

 

 

 

n = ß;

+ РІХІ +

ß2x2

+ . . . +

%xq.

 

(5.1.2)

Все предположения, перечисленные в разд. 4.2, остаются действи­ тельными и здесь. Оценка уравнения регрессии, соответствующая модели (5.1.1), получается обобщением аналогичного уравнения разд. 4.3:

Y = bQ + ЪІ (Xi — Xi) + b2 (x2 — x2) + . . . - f bq (xq — xq).


Линейные модели с несколькими переменными 313

Переменные х теперь могут представлять различные величины, такие, как скорость потока, давление р, концентрацию с, или произведения величин, например р2, рс и рс2.

5.1.1.Оценивание методом наименьших квадратов

Чтобы получить оценки параметров модели (5.1.1), можно

выполнить те же действия, которые описывались в разд. 4.3 и 4.4 при изложении метода наименьших квадратов. Требуется минимизировать взвешенную (в «обыкновенном» методе наимень­ ших квадратов все веса равны единице) сумму квадратов откло­ нений наблюдаемых значений Yt величины Y от соответствующих математических ожиданий П;:

п

 

п

(5.1.3)

Ф = ^ І Ѵ І

(Yi-m)2=

SWiEl

i=l

 

i=l

 

по коэффициентам ß 0 , ßi,

ß 2 > • • -,

ßg - В выражении (5.1.3) веса

могут быть обратно пропорциональны дисперсиям Of.,

что при

определении линии наилучшей подгонки к экспериментальным данным гарантирует, что точки с наибольшими дисперсиями будут оказывать наименьшее влияние; можно использовать и дру­

гие веса. Будут применяться следующие индексы:

 

 

индекс

наборов данных

(строки

матрицы)

1 ^

і

n,

индекс

коэффициентов

(столбцы

матрицы)

0 ^

k ^

q.

Чтобы минимизировать ф, возьмем частные производные от ф по каждому из параметров ß ; и полученные выражения прирав­

няем нулю

(можно показать,

что реализуется именно

минимум):

 

n

 

 

 

 

 

 

^ = - 2

2

« M F e - ß o - ß i

 

 

 

 

 

 

i=l

 

 

 

 

 

 

n

— ß2 іг

— Х%)—.

. . — ß g (Xiq

— Xq)]

=0,

 

 

 

 

 

 

 

- | | - = _ 2

2

и;. [ У г - ß o - ß ,

( * « - * , ) -

 

 

 

 

— ß 2 (Xi2 — X 2 ) — • • —ß« (Ziq — Xq)]

(Хц — Х}) = 0,

(5.1.4)

 

n

 

 

 

 

 

 

-1*= ~ 2

Y

m [ У і - ß o - ß i

( * < i - à ) -

 

 

 

 

 

— ß2 (Хі2 —

Хг)—-

• • — ß« (Xiq — Xq)] (xiq

— Xq) = 0.

Перенося в правую часть члены, не содержащие параметров, получим совместную систему нормальных уравнений (5.1.5), экви-