Центральный Дом Знаний - Алгоритм Левенберга — Марквардта

Информационный центр "Центральный Дом Знаний"

Заказать учебную работу! Жми!



ЖМИ: ТУТ ТЫСЯЧИ КУРСОВЫХ РАБОТ ДЛЯ ТЕБЯ

      cendomzn@yandex.ru  

Наш опрос

Как Вы планируете отдохнуть летом?
Всего ответов: 922

Онлайн всего: 1
Гостей: 1
Пользователей: 0


Форма входа

Логин:
Пароль:

Алгоритм Левенберга — Марквардта

Алгоритм Левенберга — Марквардта, метод оптимизации, направленный на решение задач о наименьших квадратах. Является альтернативой методу Гаусса — Ньютона. Может рассматриваться как комбинация последнего с методом градиентного спуска или как метод доверительных интервалов. Алгоритм был сформулирован независимо Левенбергом (1944) и Марквардтом (1963). 

Пусть имеется задача о наименьших квадратах вида:

F(\vec{x})=\|\vec{f}(\vec{x})\|^2=\sum_{i=1}^m f_i^2(\vec{x})=\sum_{i=1}^m(\varphi_i(\vec{x})-\mathcal{F}_i)^2\to\min\!.

Эта задача отличается особым видом градиента и матрицы Гессе:

\nabla F(\vec{x})=2J^T(\vec{x})f(\vec{x}),

H(\vec{x})=J^T(\vec{x})J(\vec{x})+Q(\vec{x}),\qquad Q(\vec{x})=\sum_{i=1}^m f_i(\vec{x})H_i(\vec{x}),

где J(\vec{x}) — матрица Якоби вектор-функции \vec{f}(\vec{x})H_i(\vec{x}) — матрица Гессе для её компоненты f_i(\vec{x}).

Тогда согласно методу Гаусса — Ньютона в предположении доминирующей роли слагаемого J^T(\vec{x})J(\vec{x}) над Q(\vec{x}) (то есть если норма \|\vec{f}(\vec{x})\| значительно меньше максимального собственного значения матрицы J^T(\vec{x})J(\vec{x})) очередное направление \vec{p} определяется из системы:

J^T(\vec{x})J(\vec{x})\vec{p}=-J^T(\vec{x})f(\vec{x}). 

Направление поиска Левенберга — Марквардта определяется из системы:

[J^T(\vec{x}_k)J(\vec{x}_k)+\lambda_k I]\vec{p}_k=-J^T(\vec{x}_k)f(\vec{x}_k),

где λk — некоторая неотрицательная константа, своя для каждого шага, I — единичная матрица.

\vec{x}_{k+1}=\vec{x}_k+\vec{p}_k.

Выбор λk можно осуществлять, делая его достаточным для монотонного спуска по функции невязки F(\vec{x}), то есть увеличивать параметр до тех пор, пока не будет достигнуто условие F(\vec{x}_{k+1})<F(\vec{x}_k). Также параметр λk можно устанавливать исходя из отношения между фактическими изменениями функции \vec{f}(\vec{x}), достигнутыми в результате пробных шагов, и ожидаемыми величинами этих изменений при интерполяции. Подобную процедуру построил Флетчер.

Также можно показать, что \vec{p}_k удовлетворяет условию:

\vec{p}_k=\mathrm{arg}\min_{\|p\|\leqslant\Delta}\|J(\vec{x}_k)\vec{p}+\vec{f}(\vec{x}_k)\|,

где Δ — параметр, связанный с λk.

Нетрудно заметить, что при λk = 0 алгоритм вырождается в метод Гаусса — Ньютона, а при достаточно большом λk направление \vec{p}_k незначительно отличается от направления наискорейшего спуска. Таким образом, при правильном подборе параметра λk добиваются монотонного убывания минимизируемой функции. Неравенство F(\vec{x}_{k+1})<F(\vec{x}_k) всегда можно обеспечить, выбрав λk достаточно большим. Однако при этом теряется информация о кривизне, заключённая в первом слагаемом, и проявляются все недостатки метода градиентного спуска: в местах пологого наклона антиградиент мал, а в местах с крутым наклоном — велик, в то время как в первом случае желательно делать большие шаги, а во втором — маленькие. Так, с одной стороны, если есть длинная и узкая впадина на поверхности, определяемой функцией невязки F(\vec{x}), то компоненты градиента вдоль основания впадины — малы, а в направлении к стенкам — велики, в то время как идти желательно по основанию оврага. Способ учёта информации о кривизне предложил Марквардт. Он заметил, что если заменить единичную матрицу на диагональ матрицы Гессе, то можно достичь увеличения шага вдоль пологих участков и уменьшения вдоль крутых спусков:

\left\{J^T(\vec{x}_k)J(\vec{x}_k)+\lambda_k\mathrm{diag}\,[J^T(\vec{x}_k)J(\vec{x}_k)]\right\}\vec{p}_k=-J^T(\vec{x}_k)f(\vec{x}_k). 

При рассмотрении А.Л.-М. как метода доверительных интервалов с помощью эвристик выбирается интервал Δ, на котором строится приближение функции \vec{f}(\vec{x}):

m(\vec{p})=\vec{f}(\vec{x}_k)+J(\vec{x}_k)\vec{p}+\frac{1}{2}\vec{p}\,^TH\vec{p}.

При этом шаг \vec{p}_k определяется исходя из задачи минимизации:

\|m(\vec{p})\|\to\min_{\|p\|\leqslant\Delta}\!.

Лит.: Гилл Ф., Мюррей У., Райт М. Практическая оптимизация = Practical optimization.

Loading

Календарь

«  Апрель 2024  »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930

Архив записей

Друзья сайта

  • Заказать курсовую работу!
  • Выполнение любых чертежей
  • Новый фриланс 24