Учебно-методический комплекс по дисциплине «Теоретические основы автоматизированного управления», страница 73

- рекуррентный метод наименьших квадратов;

- метод фильтрации с минимальной дисперсией;

- метод максимального правдоподобия;

- метод Байеса.

Ниже для построения алгоритма будет использован рекуррентный метод оценивания с минимальной дисперсией. Он наиболее удобен, поскольку не требует никаких предварительных теоретических выкладок и допускает простую и наглядную интерпретацию результатов.

Взвешенное усреднение двух векторных величин.Алгоритм оценивания, известный как фильтр Калмана, формирует взвешенное среднее двух независимых векторных оценок. Предположим, для некоторого m-мерного вектора х найдены две статистически независимыеоценких1и х2. Их взвешенным средним назовем величину

(7.61)

где K - это весовая матрица (m´ m), которая выбирается таким образом, чтобы дисперсия оценки  была минимальна. Далее будет рассматриваться динамическая система, для которой в качестве xiберется ее вектор состояний размерностиm. Вместо x2 будет использован вектор выходных измеренийy2 размерности p < m, связанный с x2 соотношением

y2 = C×x2.

(7.62)

С учетом этого уравнение (7.61) принимает вид

                              

(7.63)

Случайный вектор xi имеет ковариационную матрицу

(7.64)

вектор y2 - ковариационную матрицу

Y = E{(y2E{y2})×(y2E{y2})T}.

(7.65)

Воспользовавшись условием статистической независимости x1 и y2, введем формулу для ковариационной матрицы оценки  в (7.63):

(7.66)

Найдем теперь такую матрицу К, которая минимизировала бы дисперсии ошибок оценивания (т. е. диагональные элементы матрицыР). Для того чтобы определить ее, не прибегая к дифференцированию, несколько преобразуем уравнение (7.66). Выполним умножение, учитывая, что Q = QT, поскольку Q - симметрическая матрица:

P = Q + (KC) Q (KC)T - (KC) Q - Q (KC)T + KYKT =

= Q + K (CQCT + Y) KT - K (CQ) - (CQ)T KT.

(7.67)

В уравнении (7.67) желательно выделить слагаемое, являющееся полным квадратом относительноК. С этой целью введем две новые матрицы R и S, такие, что

(KS - R) (KS - R)T = K(SST) KT - KSRT - RSTKT + RRT =

= K(SST) KT - K (SRT) - (SRT)T KT + RRT.

(7.68)

Положив в (7.68)

SST = CQCT + Y;

(7.69)

SRT = CQ,

(7.70)

приходим к выражению

(KS - R) (KS - R)T = K (CQCT + Y) KT - K (CQ) - (CQ)T KT + RRT.

(7.71)

Правая часть данного выражения совпадает с разностью (P - Q), полученной из (7.67). Исключение составляет лишь член RRT, который можно определить, воспользовавшись уравнениями (7.69) и (7.71):

STSRT = ST CQ; RT  = (STS)-1 STCQ; R = QCTS (STS)-1;

RRT = QCT

STWS = (STS) (STS)-1 (STS)-1 (STS) = I; SSTWSST = SIST = SST.

Таким образом,

W = (SST)-1.

Согласно (7.69), отсюда следует

RRT = QCT (CQCT + Y)-1 CQ.

(7.72)

Подставляя (7.71) и (7.72) в уравнение (7.67), получаем окончательно

P = Q + (KS - R) (KS - R)T - QCT (CQCT + Y)-1 CQ.

(7.73)

В уравнении (7.73) только слагаемое (KS – R)× (KS - R)T зависит от К. Диагональные элементы этой матрицы, равные квадратам соответствующих элементов        (KS- R), всегда больше или равны нулю. Следовательно, диагональные элементы Р достигают минимума при KS - R = 0. Отсюда, используя (7.69) и (7.70), можно записать

KS = R;

K = RST (SST)-1;

K = QCT (CQCT + Y)-1.

(7.74)

Ковариационная матрица оценки с минимальной дисперсией, согласно (7.67), определяется выражением

P = Q - KCQ,

(7.75)

а сама оценка имеет вид

(7.76)

гдеКнаходится из уравнения (7.74).

Рекуррентный алгоритм оценивания вектора состояния.Применим процедуру определения взвешенного среднего двух векторных величин, описанную в предыдущем разделе, к оцениванию вектора состояния (k+1) марковского процесса (7.59), (7.60). Для этого преобразуем переменные, участвующие в уравнении (7.63):