Учет влияния разброса параметров компонентов схем на характериски РЭС, страница 2

Оптимизация Эл. Схемы состоит в отыскании комбинации ее величин при котором требуемые параметры или выходные характеристики принимают наилучшие значения при выбранном критерии оптимальности.

Математическая процедура оптимизации сводится к отысканию экстремума некоторой функции варьируемых параметров.

Задача оптимизации РЭС имеет особенности, которые учитываются при разработке алгоритмов. Многокретириальный характер задач. Многоэкстремальный характер целевой функции. Неодинаковая степень влияния параметров схемы на её характеристики. Необходимость выполнения условий технической и физической реализации схемы. Большой разброс параметров схемы.

У многокретиреальных задач существует несколько целевых функций. Которым соответствует свой критерий оптимальности. Целевые функции объединяются в общую целевую функцию для оптимизации всей функции.

В качестве целевых функций используются выходные параметры схемы. В этом случае целевая функция минимизируется.

Если необходимо рассмотреть величину обратную выходному параметру, то целевую функцию максимизируют.

 


F(V)= текущее значение характеристики.

F(V0) – идеальное значение характеристики, которое надо получить.

n – принимает только четные значения.

                             

Часто критерии неоднозначны и вводятся весовые коэффициенты целевых ф., которые учитывают вес каждой цел. Ф. В общей ц. Ф.

 


Процедура оптимизации состоит  из ряда шагов, на каждом из которых вычисляется векто варьируемых параметров V  и значение его целевой ф.

Существуют различные методы оптимизации: 1. градиентные методы оптимизации. Для многомерной ц. Ф. Условие минимума можно получить разлагая её  в многопараметрический ряд Тейлора

F(V+ΔV)=F(V)+( ΔVT)grad(F(V))+…

Для получения минимума многомерной ф. Нужно:

grad (F(Vопт))=0

В зависимости от числа учитываемых  членов ряда Тейлора градиентные медоды разделяются на : 1. нулевого порядка : покоординатный спуск метод Гаусса-Зейделя, вращение координат Розенброка. 2. методы первого порядка: метод наискорейшего спуска, сопряженных градиентов Флетгера-Ривса. 3. метод второго порядка – метод Ньютона.

Сущ. два  основных этапа при покоординатном спуске – выбор направления движения, выбор наилучшего шага. В покоординатном спуске может быть n- мерная система координат.

Выбираем Y* остальные параметры =const.

Задается значение параметра, все остальные фиксируются. Выбираем приращение параметра, если ф. уменьшилась, то направление выбрано правильно.

Как только ц. ф. перестает уменьшаться , мы начинаем изменять следующий параметр.

Данный метод эффективен, если ц. ф. имеет овражеский вид, а линии уровня ц. ф. близки к эллипсу.

Метод наискорейшего спуска

При оптимизации для наилучшего результата особое значение имеют начальное значение параметров. Эти начальные приближения, чаще всего выбираются из опыта. Если нет опыта и получены отрицательные результаты по оптимизации, рекомендуется построить линии уровней целевой функции, чтобы обойти локальный минимум.

После вычисления изменений целевой функции можно вычислить градиент. Зная направление градиента мы делает шаг в сторону антиградиента. Каждая последующая точка:

к-величина шага.

Как только целевая функция начинает возрастать возвращаемся в предыдущую точку и вычисляем градиент

Метод слепого поиска

если мы имеем сложную РЭС каждый из блоков которой нужно оптимизировать своей целевой функцией при этом необходимо получить выходные хар-ки всей системы, то возникает проблема многокритериального хар-ра целевой функции.

Если в РЭС хотя бы больше 6 критериев по которым записаны целевые функции то это очень сложно записать математически. Если параметры компонентов выбираются на основе опыта, интуиции, случайным образом – это метод слепого поиска. Чем больше число испытаний будет сделано, тем лучше результат оптимизации будем получен.

Требуется:

1. записать целевую функцию

2. задать случайным образом значение параметров компонентов из какого-то реального интервала

3. вычислить целевую функцию

4. провести пункт 2и3 5000 раз и выбрать из полученных минимальную целевую функцию