Метод Ньютона. Метод Стеффенсена
Материал из MachineLearning.
(→См. также: поправил ссылку) |
|||
(36 промежуточных версий не показаны.) |
Текущая версия
Содержание |
Введение
Часто приходится искать методы для решения задач оптимизации, а когда нашли много методов, выбирать подходящий. Здесь мы рассмотрим и сравним два метода минимизации многомерных функций.
Необходимо ввести некоторые понятия. Если минимизируемая функция дважды непрерывно дифференцируема и производные просто вычисляются, то можно применять методы минимизации второго порядка, которые используют квадратичную часть разложения функции в ряд Тейлора. Поскольку квадратичная часть разложения аппроксимирует функцию гораздо точнее, чем линейная, то естественно ожидать, что методы второго порядка сходятся быстрее, чем методы первого. Метод Ньютона имеет квадратичную скорость сходимости на классе сильно выпуклых функций. Говорят, что последовательность сходитcя к с линейной скоростью или со скоростью геометрической прогрессии (со знаменателем q), если начиная с некоторого номера, выполняется неравенство при выполнении неравенства , где , говорят о сверхлинейной скорости сходимости последовательности к , а если здесь , т. е. , то говорят о скорости сходимости порядка s. При s=2, говорят о квадратичной скорости сходимости.
Метод Ньютона
Рассмотрим метод Ньютона для задачи
где , U - выпуклое замкнутое множество из E^n. Пусть ∈U - некоторое начальное приближение. Если известно k-е приближение , то приращение функции J(u)∈ в точек можно представить в виде
Возьмем квадратичную часть этого приращения
и определим вспомогательное приближение из условий
Следущее (k+1)-e приближение будем искать в виде
В зависимости от способа выбора величины в (4) можно получить различные варианты метода Ньютона. Укажем наиболее употребительный способ выбора .
Тогда , т.е. условие (3) сразу определяет следующее (k+1)-е приближение. Иначе говоря,
В частности, когда U=E^n, в точке минимума функции J_k(u) ее производная J'_k(u) обращается в нуль. Таким образом, получаем систему линейных уравнений относительно , которую необходимо решать на каждой итерации.
Если матрица невырожденная, то имеем
Метод Стеффенсена
В методе Ньютона необходимо на каждой итерации вычислять матрицу вторых производных. Поэтому, когда вычисление матрицы вторых производных требует больших объемов вычислений, трудоемкость каждой итерации значительно возрастает. Таким образом, требуется метод, который может обойти эту проблему. Одним из таких методов является метод Стеффенсена, который является разностным аналогом метода Ньютона. Матрица вторых производных заменяется разностным отношением первых производных градиента по специальным узловым точкам. Применим этот метод к решению следующей системы уравнений: , получим следующий итерационный метод решения задачи минимизации
.
Если приближение уже известно, то следующее приближение определяется так:
где \beta_k - числовой параметр, - матрица разделенных разностей первых производных, определяемая по правилу:
: , : ,
где - элемент i-й строки j-го столбца матрицы ,а , как и выше, обозначает первые и, соответственно, вторые производные по переменным функции J(u) (i,j=1,...,n). J(u) дважды непрерывно дифференцируема.
Числовой пример
Рассмотрим работу программы, реализующую метод Стефенсена. Функция для минимизации :
Метод Стеффенсена | |||
---|---|---|---|
Число итераций | Найденное решение | Значение функции | |
0.1 | 2 | (1.75942 1.75937 1.75937 1.75937 1.75937) | 0.000977495 |
0.01 | 11 | (1.69302 1.69297 1.69297 1.69297 1.69297) | 0.000387751 |
0.0000001 | 14 | (1.69312 1.69307 1.69307 1.69307 1.69307) | 0.000316642 |
Как мы можем наблюдать на данном примере, метод Стеффенсена обеспечивает быструю сходимость, не теряя при этом в точности.
Программная реализация
См. также
Список литературы
- Ф.П.Васильев. Численные методы решения экстремальных задач. Наука 1988г.