(1.33)
где дополнительно введены обозначения для выборочного коэффициента корреляции
нормированного выборочного коэффициента корреляции
,
а также выборочных дисперсий
Оценку коэффициента находим непосредственно из первого уравнения системы (1.32)
(1.34)
Заметим, что определитель системы (1.32)
(1.35)
если среди значений , , …, есть различные. В этом случае система (1.32) имеет единственное решение.
Стандартным способом приведения нелинейных моделей к линейным по параметрам является разложение в ряд Тейлора, как правило, с точностью до первого (линейные по модели (1.25), (1.26)) или до второго (квадратичные по модели (1.27), (1.28)) порядка малости
или
где .
Поскольку такая аппроксимация нелинейных зависимостей приводит к заведомо приближенным моделям, то при возможности следует использовать особые приемы линеаризации по параметрам, не связанные с потерей точности.
Пусть, например, необходимо определить параметры и зависимости
Тогда, логарифмируя, получим
После того, как найдем коэффициенты и линейной по параметрам модели из условия минимизации
,
определим исходные параметры
Приведем несколько других примеров, сведя их в таблицу
Исходная функция |
Преобразованная функция |
Еще один пример – тригонометрическая модель .
1. Сначала рассмотрим вариант, когда известны время t и частота колебаний ω, а не известны и нуждаются в оценке амплитуда A и фаза колебаний φ.
Модель нелинейна по φ. Запишем ее в виде
и обозначим
Таким образом приходим к линейной по параметрам модели .
Обратный переход после получения с помощью МНК оценок и выполняется по формулам
.
Уточнить знак можно из соотношения .
2. Пусть теперь и ω не известна и нуждается в оценке. Тогда дважды продифференцировав исходную модель по t, получим соотношение
.
Обозначив найдем a путем минимизации
, а тогда . После нахождения ω можно найти оценки A и φ так, как это сделано в п.1.
1.3. Вероятностное обоснование метода наименьших квадратов
Популярность МНК связана не только с простотой расчета параметров моделей, но и с возможностью его вероятностного обоснования как, при определенных условиях, наилучшего метода оценки параметров. Подобное обоснование позволяет также оценить точность получаемых моделей.
В вероятностной трактовке МНК предполагается, что существуют зависимости вида , отражающие связь между x и y лишь в среднем. Более конкретно, , то есть зависимость представляет собой условное математическое ожидание выхода модели при значениях входов x. В отличие от функциональных зависимостей такие зависимости называются регрессионными. Задача МНК при этом состоит в нахождении оценок параметров регрессионных моделей.
Вообще говоря, существуют два основных источника неточностей экспериментально-статистических моделей, проявляющихся в том, что
(1.36)
1) Искажение формы истинной зависимости.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.