
(1.33)
где дополнительно введены обозначения для выборочного коэффициента корреляции
![]()
нормированного выборочного коэффициента корреляции
,
а также выборочных дисперсий

Оценку коэффициента
находим непосредственно из первого
уравнения системы (1.32)
![]()
(1.34)
Заметим, что определитель системы (1.32)

(1.35)
если среди значений
,
, …,
есть различные. В этом случае система (1.32) имеет единственное решение.
Стандартным способом приведения нелинейных моделей к линейным по
параметрам является разложение в ряд Тейлора, как правило, с точностью до
первого (линейные по
модели (1.25), (1.26)) или до второго (квадратичные по
модели (1.27), (1.28)) порядка малости

или

где
.
Поскольку такая аппроксимация нелинейных зависимостей приводит к заведомо приближенным моделям, то при возможности следует использовать особые приемы линеаризации по параметрам, не связанные с потерей точности.
Пусть, например, необходимо определить параметры
и
зависимости
![]()
Тогда, логарифмируя, получим

После того, как найдем коэффициенты
и
линейной по параметрам модели из условия
минимизации
,
определим исходные параметры
![]()
Приведем несколько других примеров, сведя их в таблицу
|
Исходная функция |
Преобразованная функция |
|
|
|
|
|
|
|
|
|
|
|
|
Еще один пример – тригонометрическая модель
.
1. Сначала рассмотрим вариант, когда известны время t и частота колебаний ω, а не известны и нуждаются в оценке амплитуда A и фаза колебаний φ.
Модель нелинейна по φ. Запишем ее в виде
![]()
и обозначим
![]()
Таким образом приходим к линейной по
параметрам модели
.
Обратный переход после получения с помощью
МНК оценок
и
выполняется
по формулам
.
Уточнить знак
можно из
соотношения
.
2. Пусть теперь и ω не известна и нуждается в оценке. Тогда дважды продифференцировав исходную модель по t, получим соотношение
.
Обозначив
найдем a путем минимизации
, а тогда
. После нахождения ω
можно найти оценки A и φ так, как это
сделано в п.1.
1.3. Вероятностное обоснование метода наименьших квадратов
Популярность МНК связана не только с простотой расчета параметров моделей, но и с возможностью его вероятностного обоснования как, при определенных условиях, наилучшего метода оценки параметров. Подобное обоснование позволяет также оценить точность получаемых моделей.
В вероятностной трактовке МНК предполагается, что существуют зависимости
вида
, отражающие связь между x и y лишь в среднем. Более конкретно,
, то есть зависимость
представляет собой условное математическое
ожидание выхода модели
при значениях входов x. В отличие от функциональных зависимостей такие зависимости называются регрессионными. Задача МНК при этом состоит в нахождении оценок параметров
регрессионных моделей.
Вообще говоря, существуют два основных источника неточностей экспериментально-статистических моделей, проявляющихся в том, что
![]()
(1.36)
1) Искажение формы истинной зависимости.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.