Приведем несколько примеров барьерных
функций. Например,
если , где
непрерывна
на X,
,
то в качестве барьерной функции можно взять ,
или ,
или
. Если же
, то можно
принять
, или
.
Пусть некоторое множество и его барьерная
функция уже заданы. Введем функции
где – положительная
последовательность барьерных коэффициентов, сходящаяся к нулю. Обозначим
, тогда последовательность
определяется из условий
|
(12.14) |
где . Если окажется, что
, то в (12.14) допускается
.
Для поиска при
фиксированном k и определения
из условий (12.14) могут быть использованы различные методы минимизации. В
частности, если и
,
то можно воспользоваться градиентным методом:
Поскольку , то при достаточно малых
и точка
также
попадет в
, и мы избавимся от проблем с
границей множества. Нужно лишь следить за величиной шага
и уменьшать его,
если .
Метод барьерных функций иногда называют методом внутренних штрафов или методом внутренней точки. Теперь сформулируем утверждение о сходимости метода.
Теорема 3 [2]. Пусть ,
, и
.
Пусть –
барьерная функция подмножества
, а последовательность
определена условиями (12.14). Тогда
Кроме того, если X ограничено и
замкнуто, а полунепрерывна снизу
на X, то сходится
к
.
В заключение приведем пример барьерной функции в случае, когда
здесь – заданное множество из
, функции
непрерывны
на . Положим
хотя бы для одного
.
Тогда барьерная функция может быть задана выражениями
.
О методах случайного поиска
Метод случайного поиска, в отличие от
ранее рассмотренных методов, характеризуется намеренным введением элемента
случайности в алгоритм поиска. Будем строить последовательность по правилу:
|
(12.15) |
где –
некоторая положительная величина;
– некоторая
реализация n-мерной случайной величины ξ с
известным законом распределения. Например, координаты
случайной
величины ξ могут представлять независимые случайные величины, распределенные
равномерно на отрезке
.
Приведем несколько вариантов метода
случайного поиска для поиска минимума функции на
множестве
, предполагая, что приближение
уже известно.
Алгоритм
с возвратом при неудачном шаге.
Задается некоторая величина шага t. С помощью датчика
случайного вектора получают некоторую его реализацию ξ и в пространстве определяют
точку
,
.
Если
и
, то сделанный шаг считается удачным,
и полагается
, а шаг t увеличивается вдвое. Если
или
же
,
то сделанный шаг считается неудачным и полагается ,
а шаг t уменьшается вдвое.
Если
окажется, что для достаточно большого N, то точка
может быть
принята в качестве приближения искомой точки минимума.
Алгоритм наилучшей пробы. Берутся
какие-либо s реализаций случайного
вектора ξ и вычисляются значения функции
в тех точках , которые принадлежат
множеству X.
Затем полагается , где
определяется условием
.
Величины
являются параметрами алгоритма и
могут меняться в процессе поиска минимума.
Алгоритм статистического градиента. Берутся
какие-либо s реализаций случайного
вектора ξ и вычисляются разности
для всех
. Затем полагают
, где сумма берется по всем тем i,
, для которых
. Если
, то принимается
. Если же
,
то повторяют описанный процесс с
новым набором реализаций случайного вектора ξ. Величины
является параметрами метода, который
может варьироваться в процессе вычислений.
Вектор
называют статистическим градиентом.
Если
,
и
векторы
являются неслучайными
и совпадают с соответствующими единичными векторами ,
то описанный алгоритм превращается в разностный аналог градиентного метода.
В описанных вариантах метода случайного
поиска предполагается, что закон распределения вектора ξ не зависит от номера
итерации. Такой поиск называют случайным поиском без обучения. Такие
алгоритмы
не обладают способностью анализировать
результаты предыдущих итераций и выделять направления, более
перспективные в смысле убывания минимизируемой функции, и сходятся медленно.
Между тем ясно, что более эффективно на
каждой итерации учитывать накопленный опыт поиска минимума на предыдущих
итерациях
и перестраивать вероятностные свойства поиска так, чтобы более перспективные направления вектора ξ становились более
вероятными. Иначе говоря, желательно иметь алгоритмы случайного поиска, которые
обладают способностью к самообучению и самоусовершенствованию в процессе
поиска минимума в зависимости от конкретных особенностей минимизируемой
функции. Такой поиск называется случайным поиском с обучением.
Обучение алгоритма осуществляется посредством целенаправленного
изменения закона распределения вектора ξ в зависимости от результатов предыдущих
итераций таким образом, чтобы “хорошие”
направления,
по которым функция убывает, стали более вероятными, а другие направления –
менее вероятными. Подробнее эти методы случайного поиска
с обучением и без обучения и вопросы их сходимости
обсуждаются в 2, 6, 7.
Подробнее см.: 2, 6, 7.
Тема 13. Вариационное исчисление
Основные вопросы темы
1. Постановка задачи и основные определения.
2. Простейшая вариационная задача.
На практике существуют задачи оптимизации,
в которых не удается описать качество выбранного решения с помощью целевой
функции.
В этих задачах критерий зависит от функции, определить которую необходимо так, чтобы критерий принял минимальное или
максимальное значение.
Вариационными задачами называются задачи о поиске экстремума функционалов, т.е. величин, численное значение которых определяется выбором одной или нескольких функций.
Приведем пример такой задачи. Пусть на
плоскости заданы две точки
и
.
Требуется соединить эти две точки гладкой кривой (рис. 5).
|
|
Рис. 5
Длина кривой, соединяющей две заданные точки, находится по формуле
Таким образом, решение задачи сводится к
определению такой непрерывной функции ,
имеющей на отрезке
непрерывную производную и
удовлетворяющей заданным граничным условиям
и , на которой критерий
примет минимальное значение.
Критерий зависит от функции
и представляет
собой функционал. Очевидно, решением является прямая
,
соединяющая две заданные точки.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.