Изучение метода группового учета аргументов

Страницы работы

5 страниц (Word-файл)

Содержание работы

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ УКРАИНЫ

НАЦИОНАЛЬНЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ

"ХАРЬКОВСКИЙ ПОЛИТЕХНИЧЕСКИЙ ИНСТИТУТ"

Лабораторная работа №6

по курсу "Интеллектуальные компьютерные системы"

Выполнил:

cт. группы КИТ-14б

Богачов О. С.

Харьков 2009


Тема: Метод группового учета аргументов

Цель: Приобретение и закрепление знаний, и получение практических навыков при методе группового учета аргументов.

     Метод группового учета аргументов или метод самоорганизации математических моделей применяется для синтеза самых  разнообразных  математических моделей, когда объекты описываются:

     1) различными функциональными зависимостями вида y=f(x1,x2,...,xn),

где аргументы x1, x2, ..., xn могут быть одночленами полиномов одной или

нескольких переменных, одночленами тригонометрических или экспоненциальных рядов и т. д. или комбинацией указанных одночленов;

     2) системами функциональных уравнений;

     3) обыкновенными дифференциальными уравнениями или их системами;

     4) уравнениями в частных производных или их системами;

     5) смешанными системами из указанных выше уравнений.

     Одним из  источников  алгоритмов  МГУА является живая природа и,  в

частности,  переработка информации при массовой  селекции  животных  или

растений. Киевским ученым Ивахненко А.Г. была выдвинута "гипотеза селекции", по которой алгоритмы массовой селекции растений или животных являются  оптимальными алгоритмами переработки информации в сложных задачах.

При массовой селекции растений высевается некоторое количество семян.  В

результате опыления образуются сложные наследственные комбинации признаков.  Селекционеры выбирают некоторую часть растений, у которых интересующее их свойство выражено лучше всего (эвристический критерий). Семена этих растений собираются и снова высеваются для образования  новых,  еще более  сложных комбинаций признаков.  Через несколько поколений селекция останавливается и ее результат является оптимальным. Если чрезмерно продолжить селекцию, то наступит "инцухт" - вырождение  растений. Существует оптимальное число поколений и оптимальное число семян, отбираемых в каждом из них.

     Алгоритмы МГУА в определенном смысле воспроизводят  схему  массовой

селекции. Рассмотрим алгоритм МГУА с линейными полиномами.

     Пусть требуется получить некотрое  полное  математическое  описание

исследуемого  процесса  или объекта y=f(x1,x2,...,xn) по некоторому множеству M исходных данных.  В простейшем случае множество исходных данных делится  на  две части.  Существует множество различных способов деления исходных данных на две части,  у каждого из них есть свои достоинства  и недостатки.  Рассмотрим  наиболее  простой способ - нумеруем все точки исходных данных натуральным рядом чисел и, скажем, все четные точки сделаем точками обучающей последовательности, а все нечетные - точками проверочной последовательности. Можно сделать и наоборот. Другой способ деления исходных данных - по величине дисперсии точек.  В обучающую последовательность включаются точки с большей дисперсией, а в проверочную – с меньшими значениями дисперсии.

     На множестве точек обучающей последовательности синтезируется  множество математических моделей вида:

             y1=f(x1)=A11*x1+A10,

             y2=f(x2)=A21*x2+A20,

             ...................,

             yn=f(xn)=An1*xn+An0,

             y(n+1)=f(x1,x2)=A(n+1,1)*x1+A(n+1,2)*x2+A(n+1,0),

             y(n+2)=f(x1,x3)=A(n+2,1)*x1+A(n+2,2)*x3+A(n+2,0),

             ................................................,

             ys=f(x(n-1),xn)=As1*x(n-1)+As2*xn+As0,

где s=n+C(2,n); C(2,n) - число сочетаний из n по два.

     Полученные математические модели оцениваются та точках  проверочной

последовательности с помощью заданного критерия.  Число полученных моделей  получается   достаточно   большим,   например,   при   n=20   имеем

s=20+n(n+1)/2=210 моделей.  Если в следующий ряд селекции пропускать все

модели и на основе каждой пары моделей синтезировать новую модель, то на

втором  ряду селекции будем иметь q2=C(2, 210)=210(210-1)/2=21945  моделей,  а на третьем - q3=C(2, 21945)=24078054  моделей, т.е. объем памяти

любой самой мощной вычислительной машины заполняется очень быстро.  Поэтому в следующий ряд селекции пропускаются только лучшие в смысле заданного  критерия селекции математические модели.  Пусть число этих моделей будет равно q, обозначим их следующим образом: Y1, Y2, ..., Yq.  На втором ряду селекции синтезируются и оцениваются композиции полученых частных моделей:

             z1=f(Y1,Y2)=B11*Y1+B12*Y2+B10,

             z2=f(Y1,Y3)=B21*Y1+B22*Y3+B20,                          (1)

             .............................,

             zr=f(Y(q-1),Yq)=Br1*Y(q-1)+Br2*Yq+Br0.

На точках  обучающей последовательности определяются их коэффициенты,  а на точках проверочной последовательности производится их  оценка  с  помощью того же критерия, что и на первом ряду селекции. Лучшие полученные модели пропускаются в третий ряд селекции, где опять производится синтез и оценка более сложных моделей. Процесс усложнения и отбора продолжается до тех пор, пока улучшается критерий качества лучших моделей. Лучшая модель всех рядов селекции и принимается за математическую модель объекта.

Похожие материалы

Информация о работе