мера разброса зависимой переменной вокруг линии регрессии (необъясненная дисперсия);
и
– стандартные отклонения
коэффициентов
и
, которые также называются
стандартными ошибками;
– средние значения изучаемых
показателей.
Коэффициент b есть мера
наклона линии регрессии. Очевидно, чем больше разброс значений y
вокруг линии регрессии, тем больше ошибка в определении линий регрессии. Если достаточно велика (регрессия
оценена на достаточно широком диапазоне значений переменной x),
то при данном уровне разброса ошибка в оценке величины наклона меньше, чем при
малом диапазоне изменения объясняющего показателя.
Формально значимость оцененного коэффициента регрессии
может быть проверена с помощью анализа его отношения к своему стандартному
отклонению. Эта величина в случае выполнения условия Гаусса-Маркова имеет -распределение Стьюдента с
степенями свободы. Она называется
-статистикой. В частности,
для коэффициента
имеем
.
(15)
Для t-статистики проверяется нулевая гипотеза, т. е.
гипотеза о равенстве ее нулю. Очевидно, что это равнозначно . Задается уровень значимости
, число степеней свободы
, и по приложению 1 находится
. Если
,
то нулевая гипотеза не может быть отвергнута при заданном уровне значимости.
Если
, то с вероятностью
коэффициент модели регрессии
значимо отличается от нуля.
Аналогично проверяется значимость коэффициента a с помощью t-статистики:
.
(16)
При оценке значимости коэффициентов линейной регрессии
можно использовать нижеуказанное правило. Если стандартная ошибка коэффициента
больше его модуля , то он не может быть
признан значимым, поскольку доверительная вероятность здесь менее 0,7. Если
, то оценка может рассматриваться
как более или менее значимая
. Значения
свидетельствуют о весьма значимой
связи
, при
–
о практически достоверном ее наличии. Конечно, в каждом конкретном случае
играет роль число наблюдений. Однако при
сформулированные
правила действительны.
Интервальные оценки коэффициентов линейного уравнения регрессии определяются следующими доверительными интервалами:
(17)
17. Одной из основных задач экономического моделирования является прогнозирование значений зависимой (результативной) переменной при определенных значениях объясняющей (факторной) переменной.
Точный прогноз результативной
переменной в случае парной линейной модели
регрессии рассчитывается по формуле
.
(18)
Точная оценка прогноза результативной переменной с доверительной вероятностью
попадает в интервал прогноза,
который оценивается по формуле
,
(19)
где
– точечная оценка прогноза
результативной переменной;
– критическое
значение критерия Стьюдента;
– величина
ошибки прогноза в точке k.
Величина ошибки прогноза в точке k рассчитывается по формуле
, (20)
где –
несмещенная оценка дисперсии случайной ошибки линейной модели парной регрессии;
n – объем выборочной совокупности.
18. На исследуемый экономический показатель чаще всего оказывает влияние не один, а несколько факторов. Например, в макроэкономических исследованиях широко используется мультипликативная производственная функция, согласно которой валовой внутренний продукт зависит не только от капитала, но и от числа занятых в производстве рабочих. В этом случае вместо парной регрессии рассматривается множественная регрессия.
Задача оценки статистической взаимосвязи переменных Y
и X1, X2, …, Xk формулируется аналогично случаю парной регрессии. Уравнение
множественной регрессии может быть представлено в векторном виде следующим
образом: , где
– вектор объясняющих переменных;
– вектор
подлежащих определению параметров;
– случайная
ошибка;
– объясняемая переменная.
Рассмотрим наиболее простую из моделей множественной
регрессии – линейную. Она имеет вид , где
– зависимая переменная
(предиктор);
,
– независимые переменные
(регрессоры);
– детерминированная
составляющая (линейная функция независимых
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.