Регрессионный анализ позволяет получить статистическую модель изучаемого процесса, которая при определённых условиях может быть использована для его изучения и прогнозирования.
Термин «регрессия» ввели в статистику создатели корреляционного анализа Ф. Гальтон и К. Пирсон. Изучая связь между ростом отцов и сыновей, они обнаружили, что отклонение роста от средней величины в следующем поколении уменьшается, т.е. регрессирует.
Регрессионная модель (уравнение) представляет зависимость результата ( ) как функции одного или нескольких факторов (хi ) как линейного, так и нелинейного вида:
Регрессионный анализ обеспечивает выбор из множества линий той линии, которая наиболее точно отражает тенденцию взаимосвязи результата и факторов. В основе регрессионного анализа лежит метод наименьших квадратов (МНК), который обеспечивает наименьшую сумму квадратов отклонений фактических значений результата (у ) от его теоретических значений ( ), полученных (вычисленных) по уравнению связи:
Простейшей системой корреляционной связи является линейная связь между двумя признаками. Значение такой связи определяется тем, что среди всех факторов, влияющих на результат, как правило, есть один – важнейший, который в основном и определяет вариацию результата. Внимание к линейным связям объясняется также и тем, что при нелинейных формах связей для выполнения расчётов их преобразуют к виду, схожему с линейной формой.
Уравнение парной линейной корреляционной связи называется уравнением парной линейной регрессии. Оно имеет вид:
где - среднее значение результата при определённом значении факторного признака;
a - свободный член уравнения;
b - коэффициент регрессии.
Исходное условие МНК для прямой линии имеет вид:
Для определения значений параметров a и b , при которых f (a,b) принимает минимальное значение, частные производные данной функции по a и по b приравнивают нулю и преобразуют в систему нормальных уравнений:
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.