- рекуррентный метод наименьших квадратов;
- метод фильтрации с минимальной дисперсией;
- метод максимального правдоподобия;
- метод Байеса.
Ниже для построения алгоритма будет использован рекуррентный метод оценивания с минимальной дисперсией. Он наиболее удобен, поскольку не требует никаких предварительных теоретических выкладок и допускает простую и наглядную интерпретацию результатов.
Взвешенное усреднение двух векторных величин.Алгоритм оценивания, известный как фильтр Калмана, формирует взвешенное среднее двух независимых векторных оценок. Предположим, для некоторого m-мерного вектора х найдены две статистически независимыеоценких1и х2. Их взвешенным средним назовем величину
(7.61) |
где K - это весовая матрица (m´ m), которая выбирается таким образом, чтобы дисперсия оценки была минимальна. Далее будет рассматриваться динамическая система, для которой в качестве xiберется ее вектор состояний размерностиm. Вместо x2 будет использован вектор выходных измеренийy2 размерности p < m, связанный с x2 соотношением
y2 = C×x2. |
(7.62) |
С учетом этого уравнение (7.61) принимает вид
|
(7.63) |
Случайный вектор xi имеет ковариационную матрицу
(7.64) |
вектор y2 - ковариационную матрицу
Y = E{(y2 – E{y2})×(y2 – E{y2})T}. |
(7.65) |
Воспользовавшись условием статистической независимости x1 и y2, введем формулу для ковариационной матрицы оценки в (7.63):
(7.66) |
Найдем теперь такую матрицу К, которая минимизировала бы дисперсии ошибок оценивания (т. е. диагональные элементы матрицыР). Для того чтобы определить ее, не прибегая к дифференцированию, несколько преобразуем уравнение (7.66). Выполним умножение, учитывая, что Q = QT, поскольку Q - симметрическая матрица:
P = Q + (KC) Q (KC)T - (KC) Q - Q (KC)T + KYKT = = Q + K (CQCT + Y) KT - K (CQ) - (CQ)T KT. |
(7.67) |
В уравнении (7.67) желательно выделить слагаемое, являющееся полным квадратом относительноК. С этой целью введем две новые матрицы R и S, такие, что
(KS - R) (KS - R)T = K(SST) KT - KSRT - RSTKT + RRT = = K(SST) KT - K (SRT) - (SRT)T KT + RRT. |
(7.68) |
Положив в (7.68)
SST = CQCT + Y; |
(7.69) |
SRT = CQ, |
(7.70) |
приходим к выражению
(KS - R) (KS - R)T = K (CQCT + Y) KT - K (CQ) - (CQ)T KT + RRT. |
(7.71) |
Правая часть данного выражения совпадает с разностью (P - Q), полученной из (7.67). Исключение составляет лишь член RRT, который можно определить, воспользовавшись уравнениями (7.69) и (7.71):
STSRT = ST CQ; RT = (STS)-1 STCQ; R = QCTS (STS)-1;
RRT = QCT
STWS = (STS) (STS)-1 (STS)-1 (STS) = I; SSTWSST = SIST = SST.
Таким образом,
W = (SST)-1.
Согласно (7.69), отсюда следует
RRT = QCT (CQCT + Y)-1 CQ. |
(7.72) |
Подставляя (7.71) и (7.72) в уравнение (7.67), получаем окончательно
P = Q + (KS - R) (KS - R)T - QCT (CQCT + Y)-1 CQ. |
(7.73) |
В уравнении (7.73) только слагаемое (KS – R)× (KS - R)T зависит от К. Диагональные элементы этой матрицы, равные квадратам соответствующих элементов (KS- R), всегда больше или равны нулю. Следовательно, диагональные элементы Р достигают минимума при KS - R = 0. Отсюда, используя (7.69) и (7.70), можно записать
KS = R; K = RST (SST)-1; K = QCT (CQCT + Y)-1. |
(7.74) |
Ковариационная матрица оценки с минимальной дисперсией, согласно (7.67), определяется выражением
P = Q - KCQ, |
(7.75) |
а сама оценка имеет вид
(7.76) |
гдеКнаходится из уравнения (7.74).
Рекуррентный алгоритм оценивания вектора состояния.Применим процедуру определения взвешенного среднего двух векторных величин, описанную в предыдущем разделе, к оцениванию вектора состояния (k+1) марковского процесса (7.59), (7.60). Для этого преобразуем переменные, участвующие в уравнении (7.63):
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.