Табл |
ица V.4 |
||||
Значение признака |
Номер градации (верхний индекс) |
Коэффициент распознавания %Я |
Значение признака |
Номер градации (верхний индекс) |
Коэффициент распознавания 7^ |
47 80 26,6 80 0,46 55,5 |
X2 Х1 х9 Х2 X6 Х3 X9 Х4 4 4 |
+4 +8 —1 +7 +1 |
313 63 0,04 118 550 0,34 |
А 4 X1 Хд хю X3 хп X1 |
0 —1 +3 +4 + 1 |
168»
Используя первый признак, находим
— 9 < 3 + Я? + %1 = 3,5 + 4 + 8 > 9.
Следовательно, уже на втором шаге процедуры данный объект следует отнести к классу А.
Аналогичный анализ можно провести для всех остальных объектов.
Результаты представлены в табл. V. 5.
Таблица V.5
Класс |
Число объектов |
Ответы, % |
||
правильные |
ошибочные |
неопределенные |
||
А В |
54 24 |
65 59 |
2 4 |
33 37 |
В заключение отметим, что величины а и $ можно выбирать, исходя из наилучшего распознавания на объектах обучающей выборки.
В заключение опишем метод группового учета аргументов. Метод группового учета аргумента (МГУА) позволяет определить для заданного множества переменных единственную модель оптимальной сложности [21, 37].
Отличие МГУА от метода наименьших квадратов (регрессионный анализ) заключается в том, что целью регрессионного анализа, как известно, является достижение минимума средне-квадратической ошибки на всех экспериментальных точках при заданном виде уравнения регрессии. МГУА предполагает разделение исходной выборки на обучающую (используемую, как в обычном регрессионном анализе, для оптимизации коэффициентов уравнения регрессии) и проверочную (используемую для .выбора членов и степени уравнения регрессии) последовательности. Это разделение выполняется следующим образом.
1. Определяется квадрат средневзвешенного по всем «входным» переменным расстояния от каждого узла интерполяции (экспериментальная точка) до некоторой «центральной» точки выборки исходных данных:
т
(V.68)
. /
т
**=-=- >. xth
где тп — число узлов интерполяции в выборке исходных данных; хц — численное значение i-й переменной в /-м узле интерполяции; xi — среднее значение i-й переменной.
2. Узлы интерполяции
ранжируются по параметру р2- так,
чтобы в. новой нумерации
р?.^р?.,' (1=1, 2, ...).
3. Точки с нечетными
индексами образуют обучающую пос
ледовательность (множество Gi), а с четными — проверочную
последовательность (множество G2).
В зависимости от поставленной задачи (получение наиболее точной модели прогноза, идентификация уравнения объекта и т. д.) выбирается определенный критерий селекции, позволяющий в процессе перебора рядов постепенно усложняющихся моделей найти модель оптимальной сложности.
Для решения задач однократного прогнозирования случайных процессов целесообразным критерием является точность, определяемая на отдельной проверочной последовательности данных (критерий регулярности),
(V.69)
где бпр — абсолютная ошибка на проверочной последовательности; <рг — значение прогноза в i-й точке по модели i=l, 2, ..., jVnp; ф? —действительное значение прогноза в той же точке;
^пр — число точек в проверочной последовательности.
Чем меньше ошибка, тем выше регулярность модели.
Общая схема получения модели оптимальной сложности для однократного прогноза методом группового учета аргумента следующая. Полное описание объекта ф=<р(дсь х2, ..., хп) заменяется несколькими рядами частных описаний.
Первый ряд селекции:
Здесь s==c2n.
При этом функция f(xi, xk), называемая опорной,* принимается линейной:
Второй ряд селекции: ,'
Уз)» • • • » zp =
2 и т. д.
Усложнение идет дискретно. В каждом ряду добавляются новые члены или повышается степень полинома, либо то и другое происходит одновременно.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.