Файл: 1. Оценка уравнения регрессии.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 17.03.2024

Просмотров: 14

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.


1. Оценка уравнения регрессии.

Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения: s = (XTX)-1XTY

К матрице с переменными Xj добавляем единичный столбец:

1

35

61

1

38

60

1

40

63

1

42

40

1

45

71

1

51

75

1

55

93

1

75

50

1

82

63

1

87

94


Матрица Y

35

36

40

40

42

45

46

50

55

70


Матрица XT

1

1

1

1

1

1

1

1

1

1

35

38

40

42

45

51

55

75

82

87

61

60

63

40

71

75

93

50

63

94


Умножаем матрицы, (XTX)
В матрице, (XTX) число 10, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X

Умножаем матрицы, (XTY)
Находим обратную матрицу (X
TX)-1

=

Вектор оценок коэффициентов регрессии равен

= =

Уравнение регрессии (оценка уравнения регрессии)

Y = 10.7099 + 0.4617X1 + 0.1462X2

Интерпретация коэффициентов регрессии. Константа оценивает агрегированное влияние прочих (кроме учтенных в модели хi) факторов на результат Y и означает, что Y при отсутствии xi составила бы 10.7099. Коэффициент b1 указывает, что с увеличением x1 на 1, Y увеличивается на 0.4617. Коэффициент b2 указывает, что с увеличением x2 на 1, Y увеличивается на 0.1462.

2. Матрица парных коэффициентов корреляции R.

Число наблюдений n = 10. Число независимых переменных в модели равно 2, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов. С учетом признака Y, размерность матрицы становится равным 4. Матрица, независимых переменных Х имеет размерность (10 х 4).

Матрица A, составленная из Y и X

1

35

35

61

1

36

38

60

1

40

40

63

1

40

42

40

1

42

45

71

1

45

51

75

1

46

55

93

1

50

75

50

1

55

82

63

1

70

87

94


Транспонированная матрица.

1

1

1

1

1

1

1

1

1

1

35

36

40

40

42

45

46

50

55

70

35

38

40

42

45

51

55

75

82

87

61

60

63

40

71

75

93

50

63

94



Матрица XTX.

10

459

550

670

459

22051

26938

31595

550

26938

33602

37844

670

31595

37844

47510


Полученная матрица имеет следующее соответствие:

∑n

∑y

∑x1

∑x2

∑y

∑y2

∑x1 y

∑x2 y

∑x1

∑yx1

∑x1 2

∑x2 x1

∑x2

∑yx2

∑x1 x2

∑x2 2


Найдем парные коэффициенты корреляции.

Значения парного коэффициента корреляции свидетельствует о весьма сильной линейной связи между x1 и y.
Значения парного коэффициента корреляции свидетельствует о умеренной линейной связи между x2 и y.
Значения парного коэффициента корреляции свидетельствует о не сильной линейной связи между x2 и x1.

Признаки x и y

∑xi




∑yi




∑xi*yi




Для y и x1

550

55

459

45.9

26938

2693.8

Для y и x2

670

67

459

45.9

31595

3159.5

Для x1 и x2

670

67

550

55

37844

3784.4


Дисперсии и среднеквадратические отклонения.

Признаки x и y













Для y и x1

335.2

98.29

18.308

9.914

Для y и x2

262

98.29

16.186

9.914

Для x1 и x2

262

335.2

16.186

18.308



Матрица парных коэффициентов корреляции R:

-

y

x1

x2

y

1

0.9327

0.5247

x1

0.9327

1

0.3354

x2

0.5247

0.3354

1


Частные коэффициенты корреляции.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.

На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.

Частные коэффициенты корреляции вычисляются по формуле:
где Rij - алгебраическое дополнение элемента rij матрицы R.

=
Теснота связи весьма сильная.

=
Теснота связи умеренная.

=
Теснота связи умеренная.

При сравнении коэффициентов парной и частной корреляции видно, что из-за влияния межфакторной зависимости между xi происходит завышение оценки тесноты связи между переменными.

Анализ мультиколлинеарности.

1. Анализ мультиколлинеарности на основе матрицы коэффициентов корреляции.

Если в матрице есть межфакторный коэффициент корреляции rxjxi>0.7, то в данной модели множественной регрессии существует мультиколлинеарность.

В нашем случае все парные коэффициенты корреляции |r|<0.7, что говорит об отсутствии мультиколлинеарности факторов.

2. Ридж-регрессия.

Наиболее детальным показателем наличия проблем, связанных с мультиколлинеарностью, является коэффициент увеличения дисперсии
, определяемый для каждой переменной как:
где Rj2 коэффициент множественной детерминации в регрессии Xj на прочие X.

О мультиколлинеарности будет свидетельствовать VIF от 4 и выше хотя бы для одного j.
По данному критерию мультиколлинеарность отсутствует.

3. Критерием плохой обсуловленности является высокая величина отношения λmaxmin максимального и минимального собственных чисел матрицы XTX — называемого показателем обусловленности. Это соотношение также позволяет судить о степени серьезности проблем мультиколлинеарности: показатель обусловленности в пределах от 10 до 100 свидетельствует об умеренной коллинеарности, свыше 1000 — об очень серьезной коллинеарности.

Модель регрессии в стандартном масштабе.

Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:
где хji - значение переменной хji в i-ом наблюдении.
Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.

Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:

ty = ∑βjtxj

Для оценки β-коэффициентов применим МНК. При этом система нормальных уравнений будет иметь вид:

rx1y1+rx1x2•β2 + ... + rx1xm•βm

rx2y=rx2x1•β1 + β2 + ... + rx2xm•βm

...

rxmy=rxmx1•β1 + rxmx2•β2 + ... + βm

Для наших данных (берем из матрицы парных коэффициентов корреляции):

0.933 = β1 + 0.335β2

0.525 = 0.335β1 + β2

Данную систему линейных уравнений решаем методом Гаусса: β1 = 0.853; β2 = 0.239;

Искомое уравнение в стандартизованном масштабе: ty1tx12tx2

Расчет β-коэффициентов можно выполнить и по формулам:

=

=

Стандартизированная форма уравнения регрессии имеет вид:

ty = 0.853x1 + 0.239x2

Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:

3. Анализ параметров уравнения регрессии