Курс лекций по таможенной статистике, страница 57

      Регрессионный анализ позволяет получить статистическую модель изучаемого процесса, которая при определённых условиях может быть использована для его изучения и прогнозирования.

      Термин «регрессия» ввели в статистику создатели корреляционного анализа Ф. Гальтон и К. Пирсон. Изучая связь между ростом отцов и сыновей, они обнаружили, что отклонение роста от средней величины в следующем поколении уменьшается, т.е. регрессирует.

      Регрессионная модель (уравнение) представляет зависимость результата ( ) как функции одного или нескольких факторов (хi ) как линейного, так и нелинейного вида:

      Регрессионный анализ обеспечивает выбор из множества линий той линии, которая наиболее точно отражает тенденцию взаимосвязи результата и факторов. В основе регрессионного анализа лежит метод наименьших квадратов (МНК), который обеспечивает наименьшую сумму квадратов отклонений фактических значений результата (у ) от его теоретических значений ( ), полученных (вычисленных) по уравнению связи:

      Простейшей системой корреляционной связи является линейная связь между двумя признаками. Значение такой связи определяется тем, что среди всех факторов, влияющих на результат, как правило, есть один – важнейший, который в основном и определяет вариацию результата. Внимание к линейным связям объясняется также и тем, что при нелинейных формах связей для выполнения расчётов их преобразуют к виду, схожему с линейной формой.

      Уравнение парной линейной корреляционной связи называется уравнением парной линейной регрессии. Оно имеет вид:

где  - среднее значение результата при определённом значении факторного признака;

a - свободный член уравнения;

b - коэффициент регрессии.

      Исходное условие МНК для прямой линии имеет вид:

      Для определения значений параметров a и b , при которых f (a,b) принимает минимальное значение, частные производные данной функции по a и по b приравнивают нулю и преобразуют в систему нормальных уравнений: