Методы многомерной оптимизации

Страницы работы

Фрагмент текста работы

Значение координаты x1, при котором имеет место минимум целевой функции, обозначим как.   На следующем шаге зафиксируем значения координат


и отыщем


который будет иметь место при


В результате после n шагов получим


и, таким образом, после одной итерации покоординатного спуска осу­ществляется переход из точки и(x0) в точку и(x1). На следующей итерации описанная шаговая процедура покоординатного спуска повто­ряется и так до тех пор, пока на некоторой k-й итерации для зада­ваемой точности ℰ не выполнится, например, условие

В методе покоординатного спуска решение задачи многомерной оптимизации сводится к поиску экстремума функции одной переменной и, следовательно, основным моментом является выбор алгоритма одно­мерной оптимизации, в качестве которого может быть использован, например, метод золотого сечения.


Метод наискорейшего градиентного спуска. Из математики из­вестно, что направление наибольшего возрастания функции нескольких переменных характеризуется ее вектором градиента


Следовательно, вычислив для некоторого


и осуществляя движение в сторону противоположную направлению вектора градиента будем обеспечивать уменьшение целевой функции. На этом принципе и базируются градиентные методы, что можно представить в виде


где h - шаг спуска, x0 - начальное приближение к точке минимума. Если в выражении (6.2) шаг спуска h=const, то данная итерацион­ная процедура представляет собой метод градиентного спуска. Оста­нов итерационного процесса (6.2) осуществляется при выполнении, например, условия

Недостатком метода градиентного спуска является ого сложность реализации, поскольку на каждом k-м шаге оптимизации необходимо вычислять частные производные целевой функции, что особенно зат­руднительно, если u(x) представлена не в аналитическом виде.


Более свободен от указанного недостатка лзтод жшснореОшего градиентного спуска, отличающийся тем, что в выражении (6.2) величина h≠const, а движение из точки


осуществляется до тех пор, пока целевая функция убывает, дос­тигая минимума вдоль этого направления, и только потом вновь вы­числяется вектор градиента, чтобы изменить направление движения. Таким образом, в данном методе спуск осуществляется более крупными шагами и градиент целевой функции вычисляется в меньшем количестве точек. Величина шага h на некоторой k-й итерации может последова­тельно изменяться до тех пор, пока не будет найдено минимальное значение u(x) вдоль данного направления, что требует неоднократно­го вычисления и(х), либо параметр h может быть выбран из условия

что сводится к минимизации данной функции по одной переменной h. Во втором варианте выбора h отпадает необходимость неоднократного вычисления целевой функции, однако приходится решать задачу одно­мерной оптимизации функции


Метод Нелдера-Мида по сравнению с градиентными методами ока­зывается значительно более простым в реализации, является очень надежным и при n≤6 одним из самых  эффективных [20].

Данный метод представляет собой шаговую процедуру, на каждом k-м (k=О,1,2,...) шаге которой в n-мерном пространстве иско­мых параметров          ,  iÎ[1, п1 формируется неправильный симплекс (выпуклый произвольный многогранник с (n+1)-й вершиной), определя­емый своим вектором параметров

Начальный симплекс, характеризуемый координатами


 может быть выбран произвольным [20], хотя его размеры и ори­ентация заметно влияют на скорость сходимости. Определение коорди­нат вершин начального симплекса можно осуществлять по задаваемым параметрам первой точки

и затем вычислять соответствующие значения целевой функции

Похожие материалы

Информация о работе

Тип:
Ответы на экзаменационные билеты
Размер файла:
149 Kb
Скачали:
0