Файл: Кильдишев, Г. С. Анализ временных рядов и прогнозирование.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 01.11.2024

Просмотров: 126

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

отмечалось выше, существует автокорреляция . Поэтому оценки коэффициентов регрессии, полученные по методу наименьших квадратоів, не .имеют оптимальных статис­ тических свойств. Наличие автокорреляции приводит к

искажению

величины

среднеквадратических

ошибок

коэффициентов

регрессии,

что

затрудняет

построение

доверительных

интервалов

для

коэффициентов

регрес­

сии,

а т а к ж е

проверку

их значимости. Кроме того,

авто­

корреляция приводит .к сокращению числа

эффективных

наблюдений

[28],

т а к

 

как

показатели одного и

того

ж е

объекта, скажем,

за

пять

лет — это

качественно

нечто

совершенно иное, чем показатели пяти

объектов

з а

один год. В первом случае мы фактически

имеем

дело

лишь с одним независимым наблюдением,

ввиду

того

что

состояние

этого

объекта

в

к-ш

году

определяется

его

состоянием

в

предыдущие

годы.

Во втором

ж е

 

слу­

чае рассматриваются пять независимых наблюдений. Автокорреляция в отклонениях от трендов, а т а к ж е

в случайных остатках уравнений регрессии, построенных по многомерным временным рядам, возникает по сле­ дующим причинам: во-первых, если в модели не учтен

существенный фактор, то его

влияние отражается на

величине отклонений,

которые в

этом случае

показыва ­

ют закономерность в

изменении,

связанную с

изменени­

ем неучтенного фактора; во-вторых, когда в модели не учитывается несколько факторов, влияние каждого из

которых

в отдельности несущественно,

но при совпаде­

нии

изменения этих

факторов по направлению и по

фазе,

в

отклонениях

может возникнуть

автокорреляция .

В-третьих, автокорреляция в отклонениях может по­

явиться в случае, когда

неправильно выбрана форма

связи между зависимой

и независимой переменными.

И наконец, в-четвертых, автокорреляция может возник­ нуть не в результате допущенных ошибок при построе­ нии модели, а вследствие особенностей внутренней структуры случайной компоненты.

Наиболее

распространенным приемом

выявления на­

личия автокорреляции в отклонениях от

тренда

или от

регрессионной

модели является

использование

крите­

рия

d (Дурбииа — Уотсона) . Этот

критерий рассчитыва­

ется

по формуле

 

 

 

74


S (e, + 1 - 6,) 2

 

 

 

 

 

 

d =

' ° '

„ —

- :

 

 

 

(6.1.1)

 

 

 

 

 

 

 

 

 

S

et

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

=

l

 

 

 

 

 

 

 

 

 

где

et

— случайные

отклонения

от

 

тренда

или

регрес­

 

 

сионной

модели.

 

 

 

 

 

 

 

 

 

 

 

 

В табл . 6.1.1 дано распределение значений

критерия

Дурбина — Уотсона

для положительной

автокорреляции

(при 5%-ном уровне

значимости) .

 

 

 

 

 

 

 

В

этой

таблице

di

и d2

— соответственно

н и ж н я я

и

верхняя

границы

критерия

Дурбина — Уотсона;

Vi

число

переменных

в

модели,

п—длина

 

временного

ряда.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Д л я

применения

критерия

Дурбина — Уотсона

вели­

чина

d,

рассчитанная по формуле

 

(6.1.1.),

сравнивается

с di

и d2

табл . 6.1.1.

Возможны

три

случая:

 

 

 

 

 

1)

если

d<Cdu

гипотеза

об

отсутствии

автокорреля­

ции

в

отклонениях

отвергается;

 

 

 

 

 

 

 

 

2) если d~>d2, то

гипотеза

об

 

отсутствии

автокорре­

ляции

п ринимается ;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3)

если

 

di^.d^Zdo,

 

то

необходимы

дальнейшие

ис­

следования

(например, по

большему числу наблюдений) .

 

Величина

d

может

принимать

 

значения

в

интервале

0 ^ d ^ 4 ,

причем

различные

для

положительных,

и от­

рицательных

коэффициентов.

Чтобы проверить

значи­

мость

отрицательных

автокорреляций,

нужно

вычис­

лить величину (4—d).

Д а л е е

проверка

осуществляется

аналогично тому, как и в случае положительной

авто­

корреляции.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Существует

ряд

способов исключения или уменьше­

ния

автокорреляции

во

временных

 

рядах .

 

 

 

 

 

Наиболее очевидным является исключение тренда из

временного

ряда

и переход

к

случайной

компоненте.

 

 

Д л я

устранения

автокорреляции

можнонспользовать

и другой

прием,

основанный

на

 

включении

времени

в

уравнение множественной репрессии в качестве аргу­ мента. Множественная регрессия с отклонениями от ли­ нейных тенденций точно эквивалентна прямому введению времени в уравнение регрессии. Это свойство впервые заметили Фриш и Boy. Теорема Фриша и Boy применима не только для линейных тенденций, но и для тенденций,

75


 

 

 

 

 

 

 

 

 

 

 

Т а б л и ц а

6.1.1

 

 

 

РАСПРЕДЕЛЕНИЕ КРИТЕРИЯ ДУРБППЛ-УОТСОНЛ

 

 

 

 

 

 

ДЛЯ

ПОЛОЖИТЕЛЬНОЙ

АВТОКОРРЕЛЯЦИИ

 

 

 

 

 

 

 

(для 5%-ІІОГО уроппп значимости)1

 

 

 

 

 

 

 

ѵ=.=1

V=-2

V = 3

 

V = 4

 

v=

5

 

 

 

 

d.

d,

d2

(1:

d.

 

 

 

d;

d,

d.

 

15

l,f8

1,36

0,95

1,54

0,82

1,75

0

69

1 97

 

 

 

16

1,10

1,37

0. 98

1,51

0,86

1,73

0

74

1 ,93

 

 

 

17

1,13

1,38

1,02

1,54

0,9)

1,71

0

78

1

93

 

 

 

18

1,16

1,39

1,05

1,53

0,93

1,69

0

82

1 ,87

 

 

 

19

1,18

1,40

1, C8

1,53

0,97

1,68

0

86

1

85

 

 

 

20

1,20

1,41

1,10

1,54

1,00

1,68

0 ,90

1

83

 

 

 

21

1,22

1,42

1,13

1,54

1,03

1,67

0

93

1

81

 

 

 

22

1,24

1,43

1,15

1,54

1,05

1,66

0

96

1

80

 

 

 

23

1,26

1,44

1,17

1,54

1,08

1,66

0

99

1 79

 

 

 

24

1,27

1,45

1,19

1,55

1,10

1,66

1 01

1 ,78

 

 

 

25

1,29

1,45

1,2t

1,55

1,12

1,66

1

,04

1 ,77

 

 

 

26

1,30

1,46

1,22

1,55

1,14

1,65

1

06

1

76

 

 

 

27

1,32

1,47

1,24

1,56

1,16

1,65

1

08

1 ,76

 

 

 

28

1,33

1,48

1,26

1,56

1,18

1,65

1

10

1

75

 

 

 

29

1,34

1,48

1,27

1,56

1,20

1,65

1

12

1

74

 

 

 

30

1,35

1,49

1,28

1,57

1,21

1,65

1

14

1 ,74

 

 

 

31

1,36

1,5»

1,30

1,57

1,23

1.65

1

16

1

74

 

 

 

32

1,37

1,50

1,31

1,57

1,24

1,65

1

18

1

73

 

 

 

33

1,38

1,51

1,32

1,58

1,26

1,65

1

19

1

73

 

 

 

34

1,39

1,51

1,33

1,58

1,27

1,65

1

21

1

73

 

 

 

35

1,40

1,52

1,34

1,58

1,28

1,65

1

22

1

73

 

 

 

35

1,

'1

1,52

1,35

1,59

1,29

1,65

1

24

1

73

 

 

 

37

1,42

1,53

1,36

1,59

1,31

1,66

1

25

1

72

 

 

.

38

1,43

1,54

1,37

1,59

1,32

1,66

1

26

1

72

 

 

 

39

M 3

1,51

1,38

1,60

1,33

1,66

1

27

1 ,72

 

 

 

40

1,44

1,54

1,39

1,60

1,34

l , 6 i

1

29

1 72

 

 

 

45

1,48

1,57

1,43

1,62

1,38

1,67

1

34

1

72

 

 

 

50

1,50

1,59

1,46

1,63

1,42

1,67

1

38

1

72

 

 

 

55

1,53

1,60

1,49

1,64

1,45

1,68

1

41

1 72

 

 

 

60

1,55

1,62

1,51

1,65

1,48

1,69

1

,41

1

73

 

 

 

65

1,57

1,63

1,54

1,66

1,50

1,70

1 47

1 73

 

 

 

70

1,58

1,64

1,55

1,67

1,52

1,70

1 49

1

74

 

 

 

75

1,60

1,65

1,57

1,68

1,54

1,71

1 51

1

74

 

 

 

80

1,61

1,66

1,59

1,69

1,56

1,72

1

53

1

74

 

 

 

85-

1,62

1,67

1,60

1,70

1,57

1,72

1

55

1

75

 

 

 

90

1,63

1,68

1,61

1,70

1,59

1,73

1

57

1

75

 

 

 

95

1,64

1,69

1,62

1,71

1,60

1,73

1

58

1

75

 

 

100

1,65

1,69

1,63

1,72

1,61

1,74

1

59

1

76

 

 

1 Таблица заимствована нз работы 142].


в ы р а ж а ю щ и х с я многочленами, и вообще для всех ортого­

нальных

функций [28] .

При

построении многофакторных моделей по вре­

менным

рядам часто возникает проблема мул ьтико л ли­

неарное™. Под мультиколлинеарностыо понимают на­ личие сильной корреляции м е ж д у переменивши, которая может существовать вне всякой зависимости м е ж д у функцией и факторами - аргументами 1 . Она является од­ новременно и характеристикой и признаком эксперимен­ тального исследования, построенного на весьма скудном

статистическом

материале. Мультиколлинеарность

час­

то представляет

собой весьма серьезную угрозу

для

правильного определения и эффективной оценки взаимо­

связи. При мультиколлинеарности между

аргументами

существует линейная связь. Если в модель

включается

два или

несколько

линейно связанных факторов-аргу­

ментов,

то наряду

с уравнением регрессии

имеются и

другие линейные отношения.

Мультиколлинеарность затрудняет проведение ана­ лиза. Во-первых, усложняется процесс выделения наибо­ лее существенных факторов, поскольку правило, по ко­ торому степень влияния аргумента на функцию одно­ значно определяется абсолютной величиной ^ - коэффи ­

циента,

справедливо

при условии

взаимной

некоррели­

рованности

или достаточно слабой

коррелированное™

всех

факторов, теряет свою силу.

Во-вторых,

и

по той

ж е

причине

искажается

смысл коэффициентов

регрес­

сии

.при

попытке

их

экономической .интерпретации.

В-третьих, возникают осложнения вычислительного ха­

рактера,

а именно эффект

слабой обусловленности

матрицы

системы

нормальных

уравнений (т. е. близость

ее определителя

к нулю) . В такой ситуации получается

неопределенное множество значений оценок коэффи­ циентов регрессии.

Формально диагональные элементы матрицы, обрат­ ной к матрице системы нормальных уравнений, которые

соответствуют линейно

зависимым

аргументам,

обра-

1 Мультиколлинеарность

может возникать также в случае, ког­

да в качестве .независимых

переменных

берутся некоторые

синте­

тические показатели. Например, при анализе рентабельности в каче­ стве аргументов могут рассматриваться объем реализации, произво­ дительность труда, фондоотдача, которые часто между собой сильно взаимосвязаны.

77


щ а ю т ся в бесконечность, так ж е как и дисперсии выше­ упомянутых оценок коэффициентов регрессии. Большие дисперсии оценок этих коэффициентов, порождаемые мультиколлииеарностыо независимых переменных, сви­ детельствуют о слабой информативности статистических данных, а следовательно, о низком качестве определяе­ мых параметров . Увеличение дисперсий оценок для коэффициентов мультиколлинеарной регрессии факти­

чески порождает тенденцию неоправданного

исключения

некоторых

существенных переменных из уравнения

рег­

рессии.

 

 

 

 

 

Мультиколлинеарность составляет проблему только в

том случае,

если она

оказывает, по

меткому

в ы р а ж е н и ю

Феррара и

Глобера

[ 4 3 ] , «пагубное

воздействие»

на ту

часть множества независимых переменных, которая иг­ рает р е ш а ю щ у ю роль в анализе. В отношении этих переменных необходимо ввести соответствующую про­ цедуру, основанную на получении некоторой новой до­ полнительной информации . Получение этой информации может состоять в использовании некоторых субъектив­ ных оценок, в дополнительном сборе исходных данных, в применении некоторых оценок, полученных в других'

аналогичных

исследованиях

(условная регрессия)

и т. д.

Решение

проблемы мультиколлииеарности

можно

р а з б и т ь . н а

пять основных

этапов:

 

1) определение самого факта существования

муль-

тиколлине а р ности ;

 

 

2)измерение степени мультиколлинеарнооти;

3)определение области мультиколлинеармостн на множестве независимых переменных;

4)

установление

причин

мультиколлннеарности;

5)

определение

мер по

устранению мультиколли-

неарности.

В классическом регрессионном анализе предполага­ ется, что между независимыми переменными отсутст­ вует линейная связь, т. е. считается, что множество не­ зависимых переменных является ортогональным. В эко­

номической

практике

т а к а я ситуация

встречается

достаточно

редко. М е ж д у аргументами существуют ли­

нейные соотношения, которые в простейшем

случае

находят свое в ы р а ж е н и е

в высокой величине

коэффи­

циентов парной корреляции между отдельными факто­ рами . Н а практике считают, что два аргумента колли-

78