Радиотехническая система, страница 7

 Если четырехполюсники нагружены, то используются матрицы волновой теории  четырехполюсников.

В качестве фазовых переменных принимаются падающая а и отраженная b, которые представляют собой линейную комбинацию нормированных напряжений и токов на входе четырехполюсника.

Матрица рассеяния S. Связывает падающие волны, которые являются независимыми переменными с отраженными волнами, которые являются зависимыми переменными.

.

Методы нулевого порядка.Процедура оптимизации состоит  из ряда шагов, на каждом из которых вычисляется векто варьируемых параметров V  и значение его целевой ф.

Существуют различные методы оптимизации: 1. градиентные методы оптимизации. Для многомерной ц. Ф. Условие минимума можно получить разлагая её  в многопараметрический ряд Тейлора

F(V+ΔV)=F(V)+( ΔVT)grad(F(V))+…

Для получения минимума многомерной ф. Нужно:

grad (F(Vопт))=0

В зависимости от числа учитываемых  членов ряда Тейлора градиентные медоды разделяются на : 1. нулевого порядка : покоординатный спуск метод Гаусса-Зейделя, вращение координат Розенброка. 2. методы первого порядка: метод наискорейшего спуска, сопряженных градиентов Флетгера-Ривса. 3. метод второго порядка – метод Ньютона.

Сущ. два  основных этапа при покоординатном спуске – выбор направления движения, выбор наилучшего шага. В покоординатном спуске может быть n- мерная система координат.

Выбираем Y* остальные параметры =const.

Задается значение параметра, все остальные фиксируются. Выбираем приращение параметра, если ф. уменьшилась, то направление выбрано правильно.

Как только ц. ф. перестает уменьшаться , мы начинаем изменять следующий параметр.

Данный метод эффективен, если ц. ф. имеет овражеский вид, а линии уровня ц. ф. близки к эллипсу.

Метод градиента.

На мат. языке   овраг – это изменение направления вычисления градиента, которое соответствует наискорейшему убыванию.

 


e1, e2 – орты в направлении координатных осей.

Чем больше градиент, тем больше ф. , чем меньше градиент, тем меньше ф. По этому направление противоположное градиенту, минимизирует ф.

Выбираем начальную точку, вычисляем градиент и делаем шаг в направлении обратному этому градиенту. В результате получаем точку, в которой ф. меньше предыдущей. Если ф. не уменьшается, то уменьшается шаг, в новой точке все действия повторяются.

Чтобы уменьшить число точек,  используется метод наискорейшего спуска. Если в новой точке ц.ф. уменьшается, то градиент не вычисляется, а продолжается движение в этом направлении, пока уменьшается ц. ф.  как только ц. ф. прекратила уменьшаться, вычисляется градиент.

Метод слепого поиска.

При слепом поиске оговариваются на основе опыта и интуиции пределы изменения параметра этой схемы. Задается желаемое число испытаний.

Метод Ньютона.  

Существенная более высокая скорость сходимости обеспечивается в методе Ньютона, в котором также используются итерационные формулы (4) и (5), но матрица Hk в (5) есть обращенная матрица Якоби: ΔVk+1 = – Яk-1F(Vk), (16), Формула (16) получается если воспользоваться разложением функции F(V) в ряд Тейлора и ограничиться только линейными членами: F(V*) = F(V) + dF(V)/dV ΔV ≈ 0, (17) где ΔV = V* – V; dF(V)/dV = Я.  Отюда имеем V1V0Я-1F(V). (18). Из-за линеаризации F(V)  при принятии допущений (17) и (18)  будет получено не точное решение V*, а лишь некоторое приближение к этому решению  V1 . Если исходная точка есть V0 то вместо (18) имеем V1 = V0Я0-1F(V). где Я0 – матрица Я, вычисленная в точке V0. получаем V1+k = VkЯk-1F(Vk).

Таким образом, применение метода Ньютона выливается к выполнению следующих операторов:

1.  Выбираем начальное приближение V = V0;

2.  вычисляется матрица Якоби Я в точке V0;

3.  Решается система линейных алгебраических уравнений: ЯΔV = – F(V) (20) и тем вычисляется вектор поправок ΔV.

4.  проверяется условия прекращения итерационного процесса: ||ΔV|| < ε, где ε – заданная погрешность решения .

Если это условия не выполняется, то вычисляется новое приближение V = V + ΔVи осуществляется переход к оператору 2, иначе имеющееся Vотождествляется с решением задачи.