Файл: 1 Поясните определение парной линейной регрессии. Поясните взаимосвязи экономических переменных.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 04.05.2024

Просмотров: 15

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

1/ Поясните определение парной линейной регрессии. Поясните взаимосвязи экономических переменных.

2\Дайте определение классической линейной регрессионной модели.

3\ В чем суть метода наименьших квадратов?

4\В чем заключается анализ точности определения оценок коэффициентов регрессии?

5\Для чего используется F-критерий Фишера?

6\ Что является мерой разброса зависимой переменной вокруг линии регрессии?

7\ Какие существуют критерии проверки гипотез, относящихся к коэффициентам регрессии?

8\Какова взаимозависимость различных критериев в парном регрессионном анализе?

Ответы:

1.) Парная линейная регрессия — это модель, позволяющая моделировать взаимосвязь между значениями одной входной независимой и одной выходной зависимой переменными с помощью линейной модели, например, прямой.

О парной линейной регрессии говорят, когда установлена зависимость между двумя переменными величинами (x и y). Парная линейная регрессия называется также однофакторной линейной регрессией, так как один фактор (независимая переменная x) влияет на результирующую переменную (зависимую переменную y). Например: рост цены ведет к снижению спроса, снижение процентной ставки ведет к увеличению инвестиций.

Независимая переменная Х называется также входной, экзогенной , предикторной (предсказывающей), фактором, регрессом, факторной переменной.

Зависимая переменная Y называется также выходной, результирующей, эндогенной, результативным признаком, функцией отклика.

2.) Если функция регрессии линейна (объясняющая переменная в уравнение регрессии входит в первой степени: M (Y x) = + 0), то регрессия называется линейной.

Теоретическая модель классической парной линейной регрессии (зависимость между переменными в генеральной совокупности), или классическая линейная регрессионная модель (КЛРМ), имеет вид

Y= +
X+ɛ,

где Х рассматривается как неслучайная переменная, а Y и ɛ - как случайные величины; и - теоретические коэффициенты (параметры) регрессии.

3.) Определение неизвестных параметров функции регрессии в эконометрике осуществляется на основе стандартного метода наименьших квадратов (МНК), метода наименьших квадратов.

Принцип наименьших квадратов утверждает, что выбор параметров функции регрессии является оптимальным в случае, когда сумма квадратов отклонений эмпирических значений результирующей переменной от теоретических значений этой переменной, рассчитанной по функции регрессии, является минимальной. Математически принцип наименьших квадратов можно записать след. образом:

Q (a,b)= min

где: - расчетное значение тренда, - фактическое значение тренда из ретроспективного ряда, nчисло наблюдений

4.) Анализ точности определения оценок коэффициентов регрессии:

Учитывая , что =M(y/х= )+ , получим = – M(y/х= ), следовательно

D( )=D( ).

Предполагаем, что все измерения равноточные. Будем считать, что все дисперсии случайных отклонений равны между собой:


D( )= , i=1,n

Получим формулы связи дисперсий коэффициентов эмпирического уравнения регрессии D( ), D( ) c дисперсией . Для этого представим формулы определения коэффициентов , в виде линейных функций относительно значений переменной y:



так как



Так как предполагается, что дисперсия y постоянна и не зависит от значений x, то и можно рассматривать как некоторые постоянные.Следовательно

(1.1.)

(1.2.)

Из соотношений (1.1.), (1.2.) очевидны след.выводы:

- Дисперсии оценок коэффициентов (D( ), D( )) прямо пропорциональны дисперсии случайных отклонений - . Следовательно, чем больше фактор случайности, тем менее точным будут оценки.

- Чем больше число наблюдений n, тем меньше дисперсии ошибок коэффициентов. Это вполне логично, чем большим числом наблюдений мы располагаем, тем вероятнее получение точных оценок.

- Чем больше дисперсия объясняющей переменной x (разброс значений

),тем меньше дисперсия оценок коэффициентов. Другими словами, чем шире область изменения объясняющей переменной, тем точнее будут оценки.


- Сростом числа наблюдений n до бесконечности дисперсии коэффициентов стремятся к нулю, что вместе с несмещенностью оценок , свидетельствует о состоятельности МНК – коэффициентов регрессии.

5.) F - критерий Фишера является параметрическим критерием и используется для сравнения дисперсий двух вариационных рядов. Критерий Фишера в основном применяется для сравнения малых выборок. Этому есть две весомые причины. Во-первых, вычисления критерия довольно громоздки и могут занимать много времени или требовать мощных вычислительных ресурсов. Во-вторых, критерий довольно точен (что нашло отражение даже в его названии), что позволяет его использовать в исследованиях с небольшим числом наблюдений.

6.) Мерой разброса зависимой переменной вокруг линии регрессии является несмещенная оценка дисперсии D( )=

7.) Для проверки правдоподобия статистической гипотезы используют критерий значимости – метод проверки статистической гипотезы.

Критерии проверки статистических гипотез (критерии значимости) можно разделить на три большие группы:

  1. Критерии согласия;

  2. Параметрические критерии;

  3. Непараметрические критерии.


 Критерии согласия называются критерии значимости, применяемые для проверки гипотезы о законе распределения генеральной совокупности, из которой взята выборка. Для проверки статистической гипотезы чаще всего используются следующие критерии согласия: критерий Шапиро-Уилки, критерий хи-квадрат, критерий Колмогорова-Смирнова.

 Параметрические критерии – критерии значимости, которые служат для проверки гипотез о параметрах распределений (чаще всего нормального). Такими критериями являются: t-критерий Стьюдента для независимых выборок, t-критерий Стьюдента для связанных выборок, F-критерий Фишера.

Непараметрические критерии – критерии значимости, которые для проверки статистических гипотез не использует предположений о распределении генеральной совокупности. В качестве примера таких критериев можно назвать критерий Манна-Уитни и критерий Вилкоксона.


8.) В случае парного регрессионного анализа (и только парного регрессионного анализа) t-критерий для гипотезы =0, F – критерий для коэффициента и t-критерий для гипотезы b=0 эквивалентны друг другу.

Поскольку  =F-статистика для коэффициента R2 является в точности квадратом t-статистики для Px,yКак и следовало ожидать, критическое значение будет равно квадрату критического значения t-статистики, при любом уровне значимости, и эти два теста всегда дают один и тот же результат, поскольку переменная, имеющая распределение Фишера, при условии, что первое число степеней свободы равно 1, имеет распределение квадрата Стьюдента.

Более того, можно показать, что величина b будет значимо отличаться от нуля при использовании t-теста, если и только если F-тест значим. Используя тот факт, что Var( = - Var(x), можем переписать выражение для стандартной ошибки величины b:



Следовательно,

,

то есть t-статистика для проверки гипотезы b =0 такая же, как и t-статистика для проверки гипотезы  , а поскольку данные тесты используют одно и тоже распределение, то они будут давать одинаковый результат.

Таким образом, в случае парной регрессии проверка нулевой гипотезы H0:b=0 тестом Стьюдента и проверка нулевой гипотезы H0:R2=0 тестом Фишера дают одинаковые результаты. Эквивалентный результат дает тест Стьюдента для гипотезы  . Это утверждение справедливо при наличии только одной независимой переменной и линейной модели.