p - правило выбора (инструкция как из Х, используя s, выделить Y).
R - линейно упорядочено: "x,yÎX: x < y Ú x = y Ú x > y,
< -отношение предпочтения.
(Например, R - множество действительных чисел, < - больше, меньше, равно.)
С: A ® R; "xÎА $ qÎR: q=С(x);
С - критерий качества, целевая функция, функция предпочтения, функция полезности.
С - функционал в общем случае (динамические ЗПР, зависят от t).
s: С: A ® R; " x1,x2ÎА: x1 предпочтительнее x2 Ûdf С(x1) > C(x2).
p: x*=arg max C(x), С(·) - поэлементная функция выбора.
xÎX
< s, p > - однокритериальный механизм.
4.2. Методы решения. A={X=(x1, x2, …, xn)} – множество альтернатив.
Статические: методы оптимизации (математическое программирование).
· Отыскание безусловного экстремума:
· Отыскание условного экстремума с ограничениями типа равенств:
Задача применением метода множителей Лагранжа сводится к задаче безусловной оптимизации.
· Задачи математического программирования:
· Задачи линейного программирования:
bj, cj, aij – постоянные.
· Задачи квадратичного программирования:
bj, cj, aij, djk – постоянные.
· Задачи выпуклого программирования:
· Задачи с сепарабельными критериальными функциями и линейными ограничениями:
· Задачи геометрического программирования:
· Задачи дискретного программирования.
Это задачи математического программирования, в которой есть ограничение на Х, состоящее в том, чтобы все (полностью дискретные задачи) или некоторые (частично дискретные задачи) компоненты вектора Х принимали только неотрицательные значения, т.е.
- некоторая положительная величина, в частности,
· Динамическое программирование (методы решения многошаговых задач)
Движение системы S состоит из m шагов (этапов); на i-м шаге управление ui переводит систему из состояния si-1, достигнутого в результате (i-1)-го шага, в новое состояние si. Этот процесс перехода осуществляет функция fi(s,u), и новое состояние определяется значениями si-1, ui:
Таким образом, u1, u2, …, um переводят систему из начального состояния s0 в конечное состояние sm. Начальное состояние задано. Необходимо найти управляющие воздействия u1, u2, …, um таким образом, чтобы система перешла в допустимое конечное состояние и при этом заданная целевая функция F(s0, u1, s1, u2, …, um, sm) достигла максимального значения F*, т.е.
Метод динамического программирования применим лишь для аддитивной целевой функции Кроме того, в задаче должно отсутствовать последействие: решения принимаемые на шаге оказывают влияние на состояние si системы в момент i. Другими словами, процессы, описываемые функциями вида
не рассматриваются.
В основе решения задачи лежит принцип оптимальности Р.Беллмана: предположим, что, осуществляя управление дискретной системой, уже выбрано управление u1, u2, …, uk и тем самым траектория состояний s0, s1, …, sk. Необходимо завершить процесс, т.е. выбрать uk+1, uk+2, …, um (а значит и sk+1, sk+2, …, sm). Тогда если завершающая часть процесса будет оптимальной в смысле достижения максимума функции
то и весь процесс будет оптимальным.
Пользуясь принципом оптимальности легко получить основное функциональное соотношение. Определим последовательность функций переменной s:
Здесь максимум берется по всем управлениям, допустимым на шаге k. Соотношение, определяющее зависимость от , принято называть уравнением Беллмана. Смысл функций нагляден: если система на шаге k-1 оказалась в состоянии s, то есть максимально возможное значение функции F. Одновременно с построением функций находятся условные оптимальные управления uk(s) на каждом шаге (т.е. значения оптимального управления при всевозможных предположениях о состоянии s системы на шаге k-1). Окончательно оптимальные управления находятся последовательным вычислением величин
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.