Обычный метод наименьших квадратов (зависимая переменная - o[x], количество наблюдений - 3), страница 2

Если распределение ошибок в регрессии отличается от нормального, то это не приводит к серьезным последствиям (таким как несостоятельность оценок). Все же на нормальность  следует обращать внимание.

   Во-первых, если распределение ошибок имеет толстые хвосты или сильно асимметрично, то метод  наименьших квадратов может давать не очень точные  оценки. Использование так называемых робастных методов оценивания позволяет повысить эффективность  оценок.

   Во-вторых, отсутствие нормальности означает, что вычисляемые  t- и F-статистики не распределены в конечных выборках точно как  t и F. Эти статистики остаются состоятельными, то есть их использование оправдано асимптотической теорией. Но при сильном отклонении от нормальности асимптотическое приближение может быть очень неточным, если размер выборки мал.

   Ненормальность ошибок можно обнаружить на гистограмме остатков или на графике остатков по номеру наблюдения. В последнем случае надо обращать внимание на выбросы.

   Один из формальных критериев для проверки нормальности  ошибок был предложен Жарком и Берой (C.M.Jarque, A.K.Bera, "Efficient Tests for Normality, Homoscedasticity and Serial Independence of Regression Residuals," Economic Letters, 6 (1980), 255-9).  Он основан на третьем и четвертом моментах.

    Статистика равна

   n * [1/6 * m(3)^2 / m(2)^3 + 1/24 * (m(4) / m(2)^2 - 3)^2]

 где m(k) = Sum {1...n} (e(i)-mean(e))^k / n - k-й центральный  момент остатков, и распределена приближенно как хи-квадрат  с двумя степенями свободы (mean(e) - среднее остатков).

    Для проверки нормальности можно использовать также  статистику для выбросов.

   Замечания:

   При проверке правильности спецификации нулевая гипотеза состоит всегда в том, что модель специфицирована  корректно, а альтернативная гипотеза - в том, что имеется ошибка спецификации. Если статистика незначима (например, уровень значимости больше 5%), то следует принять гипотезу о правильности спецификации.

   Ненормальность ошибок может быть следствием обычной гетероскедастичности или авторегрессионной условной  гетероскедастичности.

   'Гетероскедастичность': см. Гетероскедастичность

    Когда дисперсии ошибок различных наблюдений различны, то говорят о гетероскедастичности.

    Различных типов гетероскедастичности очень много. Соответственно, можно придумать много различных критериев гетероскедастичности. Проще всего проверить наличие функциональной связи между дисперсией ошибки и регрессорами или между дисперсией ошибки и математическим ожиданием зависимой переменной.

    Предположим, что подозревается наличие функциональной зависимости между дисперсией sigma2(i) и некоторыми переменными Z(i) . Если эта зависимость есть, то  дисперсия (или, что то же самое, математическое ожидание квадрата ошибки, E[eps(i)^2]) - функция Z(i). Один из наиболее распространенных вариантов использует в качестве Z(i) расчетные значения: Z(i) = X(i)b.

    Для проверки отсутствия такой функциональной зависимости можно использовать вспомогательную регрессию:

   e(i)^2 = a1 + Z(i)a2.

 Соответствующая статистика равна коэффициенту детерминации из вспомогательной регрессии, умноженному на количество наблюдений и распределена приближенно как хи-квадрат с p степенями свободы, где p - количество переменных в Z. Также можно использовать F-критерий для гипотезы a2 = 0, имеющий в данном случае p и (n-1-p) степени свободы. Оба варианта асимптотически эквивалентны..