Методы повышения эффективности процессов добычи и транспорта газа, страница 89

Каждое частное описание является функцией только двух аргументов. Поэтому коэффициенты частных описаний легко оп-

171


ределяются по данным обучающей последовательности при ма­лом числе узлов интерполяции (первая операция). Из ряда в ряд селекции пропускается только некоторое число самых регу­лярных переменных. Далее, исключая промежуточные перемен­ные (вторая операция), можно получить аналог полного опи­сания. Решающим обстоятельством является то, что при увели­чении сложности математической модели (например, числа чле­нов и степени полинома) точность, определяемая на отдельной проверочной последовательности, сначала возрастает, затем на­чинает уменьшаться. Минимуму критерия селекции и соответ­ствует искомая модель оптимальной сложности.

Здесь применяется один из алгоритмов МГУА, предполагаю­щий расширение размерности вектора исходных данных путем добавления к вектору х некоторых элементарных функций: 1/х,

Ухи Г/У* [21].

В случае присутствия их в искомой зависимости мы уже не получим их разложения, что дает возможность получить более компактное и более точное математическое описание.

Последовательность расчетов следующая. На первом этапе составляется k линейных уравнений регрессии


 i' = 1» 2,...


(V.70)




xt

(i = 1, 2, . .        . , л)

(i = /z + 1, .       . .., 2n)

Vxt   (i=2n + l, •         . • , Зтг)

\l~yJi (i = 3n+ I, .        . . , An)


(V.71)


Коэффициенты аи, zH для каждого уравнения (V.70) вычис­ляются по данным обучающей последовательности




it — Чц     2d zui

— Фу — "^" ^2j Ф/» R = Ri = m/2


(V.72)


Для каждой модели первого приближения yfy вычисляется величина 6jp . По минимуму б^, отбирается группа наиболее «перспективных» частных описаний приближения yau (l=\, 2t 3, .... Г, где Г — свобода выбора решений). Для каждого «пер­спективного» решения первого этапа у [У выполняется следую­щий цикл операций.

172


1.  Составляется k уравнений

(V.73)
!f                 (i = 1.2, . . . , Л),

где 2iz — аргумент частного описания; Zu— аргументы, опреде­ляемые из выражения (V.71).

2.  Если оценка 6щ>.$ (V.69) для одной (или нескольких) мо­
делей у}f) (V.73) имеет меньшее численное значение, чем оцен­
ка моделей #}}>, то снова составляется   совокупность   частных
описаний

(V.74) ^Mi   (* = 1. 2, . . . , А),

где zh   —аргумент модели т/i/ , имеющий наименьшую оцен­ку.

Процесс направленного усложнения математической модели (содержащей zu) на первом этапе может повторяться много­кратно. Окончательно из совокупности   моделей yll} , у иУ , ...,

у№ отбирается модель, наилучшая в смысле минимума  б пР.

3. Определяется совокупность обобщенных аргументов вто­рого этапа, которая состоит из k «входных» переменных (V.71)

и k ковариаций «входных» переменных с аргументом zff,   при­сутствующим в модели: Z2i = zu.

 .izu   (*=1.2, . . . , k).                                                                     (V.75)

4. Строятся 2k решений у<ц второго этапа:

 hit bi Ixih   4ti = Чц--------- jr

R

а,--&------ ;    »,= ~^------------------- .------------------- (V.77)

где Z2i — выбранная скорректированная обобщенная переменная

о

для следующего ряда (из г возможных); z2tj — центрированное значение обобщенной переменной; ущ—аппроксимирующее зна-

173


чение функции предыдущего ряда; bj—коэффициент ортогона-лизации обобщенной переменной Х2ц относительно ущ (по про­верочной последовательности); коэффициенты аг вычисляются отдельно по данным обучающей и проверочной последователь­ностей.

5. Для каждого частного описания  (V.76)   находится   бпр t (V.69), затем эти оценки сравниваются.

По минимуму критерия регулярности (V.69) на втором эта­пе уплотнения математической модели определяют окончатель­ный выбор решений, y^g первого этапа среди множества перс­пективных решений Y,ff (/=1, 2, .,., Г). На втором, третьем ш