Обычный метод наименьших квадратов (зависимая переменная - o[x], количество наблюдений - 3), страница 4

   При проверке правильности спецификации нулевая гипотеза состоит всегда в том, что модель специфицирована  корректно, а альтернативная гипотеза - в том, что имеется ошибка спецификации. Если статистика незначима (например, уровень значимости больше 5%), то следует принять гипотезу о правильности спецификации.

   'AR(1) в ошибке': см. Автокорреляция ошибок \

Автокорреляция ошибок (сериальная корреляция) формально означает, что ковариационная матрица ошибок регрессии не диагональна. Если при оценивании не учитывается автокорреляция, то (в лучшем случае) происходит потеря эффективности (оценки получаются менее точными, чем для методов оценивания, учитывающих автокорреляцию). Более того, если среди регрессоров есть лаги зависимой переменной, то наличие автокорреляции приводит к несостоятельности оценок МНК. Несостоятельность оценок МНК может иметь место также тогда, когда ошибки нестационарны, например, порождаются процессом случайного блуждания.

    Автокорреляцию ошибок можно выявить с помощью анализа остатков. Она проявляется в том, что в ряде, состоящем из остатков регрессии, можно заметить автокоррелированность. Для этого можно посмотреть на выборочную автокорреляционную функцию остатков, или на их выборочный спектр, или просто на график остатков по номеру наблюдения.

    Из формальных критериев наиболее известен критерий Дарбина-Уотсона (DW). Если он близок к 0, то это признак положительной автокорреляции 1-го порядка. Желательно, чтобы DW был около 2.

    Программа выдает (как "AR(1) в ошибке") также критерий автокорреляции остатков, предложенный Годфреем (L.G.Godfrey, "Testing against General Autoregressive and Moving-Average Error Models When Regressors Include Lagged Dependent Variables," Econometrica, 46 (1978), 1293-1302). В отличие от критерия Дарбина-Уотсона, этот критерий применим даже тогда, когда среди регрессоров имеются лаги зависимой переменной.

    Пусть e(t) = Y(t) - X(t)b - остатки из диагностируемой регрессии. Обозначим

     e[-k] = (0,...,0, e(1), ..., e(n-k))',

 где n - количество наблюдений. Матрица регрессоров X дополняется столбцами e[-1], ... ,e[-p] (лагами остатков), где p - порядок критерия. Формально проверка нулевой гипотезы об отсутствии автокорреляции осуществляется как проверка гипотезы о том, что коэффициенты при добавленных переменных в данной вспомогательной регрессии одновременно равны нулю.

    Пусть e - вектор остатков, E = (e[-1], ... ,e[-p]) - матрица, составленная из лагов остатков, 

      MX = I - X inv(X'X) X' - 

 матрица проекции на ортогональное дополнение пространства регрессоров. Тогда статистика, заданная выражением,

     n (e' E inv(E' MX E) E' e) / (e' e)

 распределена приближенно как хи-квадрат с p степенями свободы. 

 Статистика 

     (n - m - p) / p * (e' E inv(E' MX E) E' e) /

      (e' e - e' E inv(E' MX E) E' e)

 распределена приближенно как F Фишера с p и (n - m - p) степенями свободы, где m - количество регрессоров, т.е. столбцов матрицы X.

   Оба варианта асимптотически эквивалентны. 

   Замечание:

   При проверке правильности спецификации нулевая гипотеза состоит всегда в том, что модель специфицирована  корректно, а альтернативная гипотеза - в том, что имеется ошибка спецификации. Если статистика незначима (например, уровень значимости больше 5%), то следует принять гипотезу о правильности спецификации.