Смекни!
smekni.com

Методы оптимизации (стр. 8 из 11)

82 . Зададим

= 0,25.

92. Вычислим

: x11 = (-0,03;0,125)T

102. Проверим условие

:

= 0,01-0,109 = -0,099 < 0.

112. Проверим условия

,
:

= 0,22 > 0,15,
= 0,099 < 0,15.

Полагаем k=1 и переходим к шагу 5.

53. Проверим условие

: k = 1 = n -1.

63. Вычислим

:
= (0,005; 0,22)T .

73. Проверим условия

:
= 0,22 > 0,1.

83. Зададим

=0,25.

93. Вычислим

: x12 =(-0,03; 0,07)T.

103. Проверим условие

:

= 0,0046 -0,01 = -0,0054 < 0.

113. Проверим условия

,
:

= 0,055 < 0,15,
= 0,0054 < 0,15.

Зададим k= 2 и переходим к шагу 5.

54. Проверим условие

: k = 2 > п-1.

Полагаем j = 2, х20 = х12 и переходим к шагу 3.

32 . Проверим условие

: j= 2 < 10 = М.

42. Зададим k=0.

54. Проверим условие

:k = 0 <1 = n-1.

64. Вычислим

:
=
= (-0,05; 0,11)T.

74. Проверим условие

:
= 0,12 > 0,1.

84 . Зададим

= 0,25.

94. Вычислим

: х21= (- 0,02; 0,07)Т.

104. Проверим условие

: 0,0043-0,046 = -0,0003 < 0, пе­рейдем к шагу 11.

114. Проверим условия

,
:

= 0,01 < 0,15 ,
= 0,0003 < 0,15.

Условия

,
выполнены в двух последовательных циклах с номерами j= 2 и j-1 = 1. Расчет окончен, найдена точка х21= (- 0,02; 0,07)Т; f21) = 0,0043 .

На рис. 6 полученные точки соединены пунктирной линией.

В методе покоординатного спуска мы спускаемся по ломаной, состоящей из отрезков прямых, параллельных координатным осям.

Рис. 6

II. Анализ точки х21.

В примере 1.1 (гл.2 §1) было показано, что функция f(х) строго выпукла, имеет единственный минимум и, следовательно, точка х21 = = (-0,02; 0,07)Т является найденным приближением точки глобального минимума. ■

Во всех рас­смотренных выше градиентных методах последовательность точек {xk} сходится к стационарной точке функции f(x) при достаточно общих предложениях относительно свойств этой функции. В частности, справедлива теорема:

Теорема. Если функция f(x) ограничена снизу, ее градиент удовлетворяет условию Липшица (

)и выбор значения

производится одним из описанных выше спосо­бов, то, какова бы ни была начальная точка х0:

при
.

При практической реализации схемы

k=1, 2, …n.

итерации прекращаются, если для всех i, i = 1, 2, ..., n, выпол­нены условия типа

,

где

- некоторое заданное число, характеризующее точ­ность нахождения минимума.

В условиях теоремы градиентный метод обеспечи­вает сходимость по функции либо к точной нижней грани

(если функция f(х) не имеет минимума; рис. 7), либо к значению функции в некоторой стационарной точке, являющейся пределом последовательности к}. Нетрудно придумать примеры, когда в этой точке реализуется седло, а не минимум. На практике ме­тоды градиентного спуска уверенно обходят седловые точки и находят минимумы целевой функции (в общем случае — локальные).

Рис. 7

§ 2. Методы второго порядка

2.1 Метод Ньютона

Процесс отыскания минимума с помощью метода Ньютона оказывается более эффективным (т.е. требует меньшего числа итераций), чем градиентные методы, так как квадратичная функция локально аппроксимирует минимизируемую функцию, чем линейная, лежащая в основе градиентных методов.

Основные недостатки метода Ньютона состоят в том, что он, во-первых, предполагает вычисление вторых про­изводных, что может быть связано с существенными труд­ностями, и, во-вторых, может расходиться, если целевая функция не является сильно выпуклой и начальное при­ближение находится достаточно далеко от минимума.

Стратегия поиска

Стратегия метода Ньютона [ NewtonI. ] состоит в построении последова­тельности точек {хk}, k = 0,1,..., таких, что

k= 0,1,.... Точки последовательности вычисляются по правилу

(5)

где х0задается пользователем; величина шага

определяется для каждого значения kпо формуле

.(6)

Выбор

по формуле (6) гарантирует выполнение требования
при условии, что
. Формула (6) получена из следующих соображений:

1. Функция f(х) аппроксимируется в каждой точке последовательности {хk} квадратичной функцией

.

2. Направление

определяется из необходимого условия экстремума пер­вого порядка:
Таким образом, при выполнении требования
последовательность является последовательностью точек минимумов квадратич­ных функций Fk, k= 0,1,... (рис. 8). Чтобы обеспечить выполнение требования
, k = 0,1,..., даже в тех случаях, когда для каких-либо значений матрица Гессе
не окажется положительно определенной, рекомендуется для соответствующих значений kвычислить точку
по методу градиентного спуска
с выбором величины шага
из условия
.