Методические указания к практическим занятиям по дисциплине «Методы и алгоритмы принятия решений», страница 10

p - правило выбора (инструкция как из Х, используя s, выделить Y).

R - линейно упорядочено:  "x,yÎX: x < y Ú x = y Ú x > y,

< -отношение предпочтения.           

(Например, R - множество действительных чисел, < - больше, меньше, равно.)

С: A ® R; "xÎА $ qÎR: q=С(x); 

С - критерий качества, целевая функция, функция предпочтения, функция полезности.

С - функционал в общем случае (динамические ЗПР, зависят от t).

s: С: A ® R; " x1,x2ÎА: x1 предпочтительнее x2 Ûdf С(x1) > C(x2).

p: x*=arg max C(x), С(·) - поэлементная функция выбора.

xÎX

< s, p > - однокритериальный механизм.

4.2. Методы решения. A={X=(x1, x2, …, xn)} – множество альтернатив.

Статические: методы оптимизации (математическое программирование).

·  Отыскание безусловного экстремума:

·  Отыскание условного экстремума с ограничениями типа равенств:

  

Задача применением метода множителей Лагранжа сводится к задаче безусловной оптимизации.

·  Задачи математического программирования:

  

 

·  Задачи линейного программирования:

  

 

bj, cj, aij – постоянные.

·  Задачи квадратичного программирования:

  

 

bj, cj, aij, djk – постоянные.

·  Задачи выпуклого программирования:

  

 

·  Задачи с сепарабельными критериальными функциями и линейными ограничениями:

  

 

·  Задачи геометрического программирования:

  

 

·  Задачи дискретного программирования.

Это задачи математического программирования, в которой есть ограничение на Х, состоящее в том, чтобы все (полностью дискретные задачи) или некоторые (частично дискретные задачи) компоненты вектора Х принимали только неотрицательные значения, т.е.

  

 - некоторая положительная величина, в частности,

·  Динамическое программирование (методы решения многошаговых задач)

Движение системы S состоит из m шагов (этапов); на i-м шаге управление ui переводит систему из состояния si-1, достигнутого в результате (i-1)-го шага, в новое состояние si. Этот процесс перехода осуществляет функция fi(s,u), и новое состояние определяется значениями si-1, ui:

Таким образом, u1, u2, …, um переводят систему из начального состояния s0 в конечное состояние sm. Начальное состояние задано. Необходимо найти управляющие воздействия u1, u2, …, um таким образом, чтобы система перешла в допустимое конечное состояние и при этом заданная целевая функция F(s0, u1, s1, u2, …, um, sm) достигла максимального значения F*, т.е.

Метод динамического программирования применим лишь для аддитивной целевой функции  Кроме того, в задаче должно отсутствовать последействие: решения принимаемые на шаге оказывают влияние на  состояние si системы в момент i. Другими словами, процессы, описываемые функциями вида

не рассматриваются.

В основе решения задачи лежит принцип оптимальности Р.Беллмана: предположим, что, осуществляя управление дискретной системой, уже выбрано управление u1, u2, …, uk и тем самым траектория состояний s0, s1, …, sk. Необходимо завершить процесс, т.е. выбрать uk+1, uk+2, …, um (а значит и sk+1, sk+2, …, sm). Тогда если завершающая часть процесса будет оптимальной в смысле достижения максимума функции

то и весь процесс будет оптимальным.

Пользуясь принципом оптимальности легко получить основное функциональное соотношение. Определим последовательность функций переменной s:

  

Здесь максимум берется по всем управлениям, допустимым на шаге k. Соотношение, определяющее зависимость от , принято называть уравнением Беллмана. Смысл функций  нагляден: если система на шаге k-1 оказалась в состоянии s, то  есть максимально возможное значение функции F. Одновременно с построением функций  находятся условные оптимальные управления uk(s) на каждом шаге (т.е. значения оптимального управления при всевозможных предположениях о состоянии s системы на шаге k-1).  Окончательно оптимальные управления находятся последовательным вычислением величин