Регрессионный анализ – совокупность статистических методов обработки экспериментальных данных, позволяющих в условии стохастической зависимости исследуемой величины от неслучайных или случайных переменных определять данную зависимость.
В дальнейшем будем рассматривать две модели регрессионного анализа (РА).
Модель 1. В данной модели зависимая переменная – случайная величина, а независимые переменные xj, – неслучайные, точно заданные переменные. Таким образом, модель 1 регрессионного анализа имеет вид (8.1.2).
Модель 2. В данной модели как зависимая переменная, так и независимые переменные являются случайными величинами. Следовательно, модель 2 регрессионного анализа имеет вид (8.1.4).
В дальнейшем регрессионный анализ на основе модели 1 будем называть РА-1, а на основе модели 2 – РА-2. В некоторых источниках РА-2 принято объединять с корреляционным анализом. В данной брошюре РА-2 рассматривается как самостоятельный вид регрессионного анализа, при выполнении которого привлекаются методы корреляционного анализа. Так как РА-1 и РА-2 имеют много общего, то основное внимание уделяется методам РА-1, а для РА-2 показывается лишь специфика соответствующих методов анализа.
Сущность регрессионного анализа состоит в замене стохастической зависимости между переменными и , некоторой детерминированной зависимостью f, достаточно хорошо аппроксимирующей основные свойства исходной стохастической зависимости. В дальнейшем переменные , будем обозначать также вектором . Иначе говоря, в процессе регрессионного анализа устанавливается аналитическая зависимость между некоторой характеристикой случайной величины и независимыми переменными . Очевидно, что в данном случае возникает проблема выбора соответствующей характеристики случайной величины . В регрессионном анализе в качестве такой характеристики используется условное математическое ожидание
случайной величины при условии, что независимые переменные приняли определённые значения X<k>. Таким образом, сущность регрессионного анализа состоит в замене зависимостей вида (8.1.2) или (8.1.4) зависимостью вида
. (9.1.1)
Выражение (9.1.1) называется регрессией, именно это название и определило наименование методов, объединённых в регрессионном анализе.
Замена стохастической зависимости регрессионной определяет и ограниченность методов регрессионного анализа. Она состоит в том, что данные методы позволяют провести не всестороннее исследование того, как зависит от , а лишь один аспект этой стохастической зависимости. Всесторонний анализ имел место, если бы, например, устанавливалась зависимость между законом распределения случайной величины и переменными . Тем не менее, с практической точки зрения этот единственный аспект в большинстве случаев является наиболее существенным.
Можно провести классификацию видов регрессионного анализа.
По виду функции f в выражении (9.1.1) регрессионный анализ принято делить на линейный, в котором указанная функция является линейной относительно оцениваемых параметров, т.е.
, (9.1.2)
и нелинейный, в котором она нелинейная относительно параметров aj. В выражении (9.1.2) функции jj могут определяться одной, несколькими или всеми независимыми переменными.
По числу независимых переменных регрессионный анализ принято подразделять на однофакторный, если имеет место только одна такая переменная, и многофакторный, если число независимых переменных более одной.
Очевидно, что для установления зависимости (9.1.1) необходимо решить ряд задач, которые и составляют собственно регрессионный анализ. К их числу относятся:
1) выбор класса функций, в рамках которого определяется взаимосвязь между и ;
2) определение подходящих значений параметров aj, определяющих конкретный вид функции;
3) оценка точности аппроксимации зависимости (8.1.2) или (8.1.4) функцией (9.1.1).
Необходимо отметить, что первая из перечисленных задач формально не решается методами регрессионного анализа. Иначе говоря, класс функции Y определяется на основе соображений, которые находятся вне рамок данных методов. Регрессионный анализ позволяет только оценить, насколько удачен этот выбор. При этом наилучшей оценкой зависимости от X<k> в заданном классе Y является функция, реализующая минимум математического ожидания квадрата ошибки, т.е. величины
. (9.1.3)
Оценка случайной величины , принадлежащая определённому классу функций Y и минимизирующая ошибку (9.1.3), называется средней квадратической регрессией на X<k> класса Y.
Вместе с тем некоторые рекомендации по выбору класса функций Y могут быть сделаны на основе анализа совокупности результатов наблюдений, в частности, при построении выборочной кривой регрессии. Это можно сделать, по крайней мере, на качественном уровне.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.