Существует широкий класс задач, в которых МНК является оптимальным методом обработки данных. В других классах задач использование МНК часто оправдывается алгоритмической простотой его реализации ценой небольших потерь в оптимальности получаемого результата. Для нелинейных задач статистического анализа данных зачастую невозможно использование каких-либо других методов, кроме МНК.
Эти и другие причины объясняют широкое распространение МНК при статистическом анализе экспериментальных данных, в частности, при выявлении функциональных зависимостей. Исторически МНК возник значительно раньше других методов обработки данных. Вероятностное обоснование МНК дано К. Гауссом в начале XIX в. и А.А. Марковым в начале XX в.
Предположим, что требуется определить компоненты вектора
A<k> = (a1, a2,…, ak)т,
который в общем случае не поддаётся непосредственному наблюдению. Однако можно наблюдать вектор
Y<n> = ( y1, y2,…, yn)т,
функционально связанный с искомым вектором A<k>:
Y<n> = F<n>(t; A<k>). (8.2.1)
При этом соотношение размерностей векторов A и Y может быть произвольным. В частном случае A может быть скалярной величиной, а Y – вектором, и наоборот.
В общем случае вектор-функция F является нелинейной. Схема оценивания, в которой по наблюдениям в некоторые моменты времени ti, одного набора параметров (в данном случае компонентов вектора Y) необходимо оценить компоненты другого набора параметров (компоненты вектора A), функционально связанного с первым, называется схемой косвенных наблюдений.
Процесс наблюдения всегда сопровождается ошибками. Наблюдаемое значение функции (8.2.1) в момент времени ti отклоняется от теоретического вследствие случайных факторов. Следовательно, результат наблюдения всегда представляет собой реализацию случайной величины. В общем случае ошибка наблюдения нелинейным образом связана с наблюдаемой функцией.
На практике часто удаётся путём линеаризации уравнений модели (8.2.1) относительно случайных ошибок свести уравнения к форме, когда случайные ошибки входят аддитивно или мультипликативно (см. §1.1). Однако наиболее простым и самым распространённым типом связи ошибок наблюдения и наблюдаемых величин является линейная аддитивная связь, когда модель наблюдения может быть представлена уравнениями
, , (8.2.2)
где – вектор аддитивной ошибки в i-й момент наблюдения.
В дальнейшем будем рассматривать эту схему наблюдения. Уравнения типа (8.2.2) называются уравнениями наблюдения. Поскольку компоненты вектора являются случайными неизвестными наблюдателю величинами, то для поиска оценок вектора A<k> используется уравнение вида
, (8.2.3)
которое может оказаться и несовместным, поскольку отражает наблюдаемый процесс приближённо. Поэтому уравнение (8.2.3) принято называть условным.
Если моменты времени ti, представляют собой известные и в данной задаче фиксированные величины, то фактически вектор-функция F является функцией только вектора A. Поэтому в дальнейшем в число аргументов будем включать моменты времени ti тогда, когда они либо неизвестны, либо известны с ошибкой. С учётом сказанного уравнение наблюдения запишется в виде
. (8.2.4)
В соответствии с методом наименьших квадратов оценки компонентов вектора A отыскиваются на основе минимизации суммы квадратов отклонений между Y и F:
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.