Смекни!
smekni.com

Методы поисковой оптимизации (стр. 2 из 2)

Каждая из формул (2.6), (2.7) является векторным соотношением, включающим n уравнений. Например, с учетом Хk+1 = ( x1k+1, x2. k+1,…,xnk+1), Хk = ( x1k, x2. k,…,xnk) формула (2.6) примет вид:

или в скалярном виде

В общем виде (2.9) можно записать:

В качестве условия прекращения поиска во всех градиентных методах используется, как правило, комбинация двух условий: ç Ф(Xk+1 ) - Ф(X k) ç £ e или

В градиентном методе можно несколько сократить число итераций, если научиться избегать ситуаций, когда несколько шагов поиска выполняются в одном и том же направлении.


3.3. Градиентный метод с дроблением шага

В градиентном методе с дроблением шага процедура подбора величины шага на каждой итерации реализуется следующим образом.

Исходными данными являются требуемая точность e, начальная точка поиска Х0 и начальная величина шага поиска h (обычно h = 1). Получение новых точек производится по формуле:

где hk – величина шага на k-ой итерации поиска, при hk должно выполняться условие:

Если величина hk такова, что неравенство (2.13) не выполнено, то производится дробление шага до тех пор, пока данное условие не будет выполнено. Дробление шага выполняется по формуле hk = hk ×a, где 0 < a < 1.Такой подход позволяет сократить число итераций, но затраты на проведение одной итерации при этом несколько возрастают.

3.4. Метод наискорейшего спуска

В методе наискорейшего спуска на каждой итерации градиентного метода выбирается оптимальный шаг в направлении градиента.

Исходными данными являются требуемая точность e, начальная точка поиска Х0.

Получение новых точек производится по формуле:

то есть выбор шага производится по результатам одномерной оптимизации по параметру h.

Основная идея метода наискорейшего спуска заключается в том, что на каждой итерации метода выбирается максимально возможная величина шага в направлении наискорейшего убывания целевой функции, то есть в направлении вектора-антиградиента функции Ф(Х) в точке Хk ( рис. 2. 4).

При выборе оптимальной величины шага необходимо из множества ХМ = { Х½ Х = Хk – h×grad Ф(Хk), hÎ[0,¥) } точек, лежащих на векторе градиенте функции Ф(Х), построенном в точке Хk, выбрать ту, где функция Ф(h) = Ф(Хk – h ×grad Ф(Хk)) принимает минимальное значение.

На практике целевые функции являются гораздо более сложными, линии уровня также имеют сложную конфигурацию, но в любом случае справедливо следующее: из всех градиентных методов в методе наискорейшего спуска наименьшее число итераций, но некоторую проблему представляет поиск оптимального шага численными методами, так как в реальных задачах, возникающих при проектировании РЭС, применение классических методов нахождения экстремума практически невозможно.


4. Методы поиска второго порядка

Несмотря на простоту реализации, метод наискорейшего спуска не рекомендуется в качестве “серьезной” оптимизационной процедуры для решения задачи безусловной оптимизации функции многих переменных, так как для практического применения он работает слишком медленно. Причиной этого является тот факт, что свойство наискорейшего спуска является локальным свойством, поэтому необходимо частое изменение направления поиска, что может привести к неэффективной вычислительной процедуре. Более точный и эффективный метод решения задачи параметрической оптимизации (1.5) можно получить, используя вторые производные целевой функции (методы второго порядка). Они базируются на аппроксимации (то есть приближенной замене) функции Ф(Х) функцией j(Х),

где G(X0)- матрица Гессе (гессиан, матрица вторых производных), вычисленная в точке Х0:

Формула (2.17) представляет собой первые три члена разложения функции Ф(Х) в ряд Тейлора в окрестности точки Х0, поэтому при аппроксимации функции Ф(Х) функцией j(Х) возникает ошибка не более чем (½Х-Х0½)3. С учетом (2.17) в методе Ньютона исходными данными являются требуемая точность e и начальная точка поиска Х0 , а получение новых точек производится по формуле:

где G-1k) – матрица, обратная к матрице Гессе, вычисленная в точке поиска Хk ( G(Хk)× G-1k) = I, где I - единичная матрица).


Библиографический список

1. Кофанов Ю.Н. Теоретические основы конструирования, технологии и надежности радиоэлектронных средств. - М.: Радио и связь, 1991. - 360 с.

2. Норенков И.П., Маничев В.Б. Основы теории и проектирования САПР.- М.: Высш. шк., 1990.- 335 с.

3. Самойленко Н.Э. Основы проектирования РЭС. - Воронеж: ВГТУ, 1998. - 60 с.

4. Фролов В.Н., Львович Я.Е. Теоретические основы конструирования, технологии и надежности РЭА. - М.: Радио и связь, 1988. - 265 с.

5. Батищев Д.И. Поисковые методы оптимального проектирования. - М.: Сов. Радио, 1975. - 216 с.

6. Банди Б. Методы оптимизации. Вводный курс. - М.: Радио и связь, 1988.- 128 с.

7. Батищев Д.И., Львович Я.Е., Фролов В.Н. Оптимизация в САПР. Воронеж: Изд-во Воронеж. гос. ун-та, 1997. 416 с.

8. Автоматизация проектирования РЭС: Учеб. пособие для вузов / О.В. Алексеев, А.А. Головков, И.Ю. Пивоваров и др.; Под. ред О.В. Алексеева. М: Высш. шк., 2000. 479 с.