Методы повышения эффективности процессов добычи и транспорта газа, страница 88

Табл

ица   V.4

Значение признака

Номер градации (верхний индекс)

Коэффи­циент распозна­вания

Значение признака

Номер градации (верхний индекс)

Коэффи­циент распозна­вания 7^

47 80 26,6 80 0,46 55,5

X2

Х1

х9

Х2

X6 Х3

X9 Х4

4 4

+4 +8 —1 +7

+1
___ 1

313 63 0,04 118 550 0,34

А 4

X1 Хд

хю

X3

хп

X1

0 —1

+3

+4
__ ]

+ 1

168»


Используя первый признак, находим

— 9 < 3 + Я? + %1 = 3,5 + 4 + 8 > 9.

Следовательно, уже на втором шаге процедуры данный объект следует отнести к классу А.

Аналогичный анализ можно провести для всех остальных объектов.

Результаты представлены в табл. V. 5.

Таблица V.5

Класс

Число объектов

Ответы, %

правильные

ошибочные

неопределен­ные

А В

54 24

65 59

2 4

33 37

В заключение отметим, что величины а и $ можно выбирать, исходя из наилучшего распознавания на объектах обучающей выборки.

В заключение опишем метод группового учета аргументов. Метод группового учета аргумента (МГУА) позволяет опреде­лить для заданного множества переменных единственную мо­дель оптимальной сложности [21, 37].

Отличие МГУА от метода наименьших квадратов (регресси­онный анализ) заключается в том, что целью регрессионного анализа, как известно, является достижение минимума средне-квадратической ошибки на всех экспериментальных точках при заданном виде уравнения регрессии. МГУА предполагает разде­ление исходной выборки на обучающую (используемую, как в обычном регрессионном анализе, для оптимизации коэффициен­тов уравнения регрессии) и проверочную (используемую для .выбора членов и степени уравнения регрессии) последователь­ности. Это разделение выполняется следующим образом.

1. Определяется квадрат средневзвешенного по всем «вход­ным» переменным расстояния от каждого узла интерполяции (экспериментальная точка) до некоторой «центральной» точки выборки исходных данных:


т



(V.68)


. /

 т

**=-=- >. xth


где тп — число узлов интерполяции в выборке исходных данных; хц — численное значение iпеременной в /-м узле интерполя­ции; xi — среднее значение iпеременной.

2.  Узлы интерполяции ранжируются   по параметру р2- так,
чтобы в. новой нумерации р?.^р?.,'   (1=1, 2, ...).

3.  Точки с нечетными индексами образуют обучающую пос­
ледовательность   (множество Gi),   а с четными — проверочную
последовательность (множество G2).

В зависимости от поставленной задачи (получение наиболее точной модели прогноза, идентификация уравнения объекта и т. д.) выбирается определенный критерий селекции, позволя­ющий в процессе перебора рядов постепенно усложняющихся моделей найти модель оптимальной сложности.

Для решения задач однократного прогнозирования случай­ных процессов целесообразным критерием является точность, определяемая на отдельной проверочной последовательности данных (критерий регулярности),

(V.69)

где бпр — абсолютная ошибка на проверочной последователь­ности; <рг — значение прогноза в iточке по модели i=l, 2, ..., jVnp; ф? —действительное значение прогноза   в той же   точке;

^пр — число точек в проверочной последовательности.

Чем меньше ошибка, тем выше регулярность модели.

Общая схема получения модели оптимальной сложности для однократного прогноза методом группового учета аргумента следующая. Полное описание объекта ф=<р(дсь х2, ..., хп) заме­няется несколькими рядами частных описаний.

Первый ряд селекции:

Здесь s==c2n.

При этом функция f(xi, xk), называемая опорной,* принимает­ся линейной:

Второй ряд селекции:                                                                                        ,'

Уз)» •  • • » zp =

 2 и т. д.

Усложнение идет дискретно. В каждом ряду добавляются новые члены или повышается степень полинома, либо то и дру­гое происходит одновременно.