БЕЗУСЛО́ВНОЙ МИНИМИЗА́ЦИИ МЕ́ТОДЫ
-
Рубрика: Математика
-
Скопировать библиографическую ссылку:
БЕЗУСЛО́ВНОЙ МИНИМИЗА́ЦИИ МЕ́ТОДЫ, методы, предназначенные для нахождения минимума функции многих переменных $f(x)$ в случае, когда на значения аргумента не налагаются дополнит. ограничения. Б. м. м. составляют важный класс методов оптимизации. Задача о нахождении максимума изменением знака функции $f(x)$ сводится к задаче о нахождении минимума. В случае, когда $f$ зависит от одной скалярной переменной $x$, минимизацию функции $f(x)$ обычно называют одномерной. К группе методов одномерной минимизации относятся: метод половинного деления, случайный поиск, метод Фибоначчи, метод золотого сечения и др.
В Б. м. м. в процессе минимизации строится некоторая последовательность точек $x_1,\, x_2,\, …,\, x_k$ многомерного пространства и в зависимости от значений функции $f$ в этих точках находится новая точка $x_{k+1}$. Правило построения последовательности определяется выбранным методом минимизации.
В Б. м. м. важную роль играет гладкость функции $f$. Увеличение гладкости минимизируемой функции $f$ позволяет строить более эффективные методы. Б. м. м. подразделяют на три осн. класса.
Один из классов составляют методы, не использующие производные функции $f$. В этот класс входят случайный поиск, метод покоординатного спуска и др.
Другой класс образуют градиентные методы, в которых предполагается, что функция $f$ один раз дифференцируема. В методе градиентного спуска после вычисления значения функции $f$ и её градиента $f_x$ в точке $x_k$ новая точка находится по формуле $$x_{k+1}=x_k-α_kf_x(x_k),$$ где $α_k$ – неотрицательное число (шаг спуска). При некоторых условиях последовательность $x_1,\, x_2,\, …$ сходится к точке локального минимума функции $f(x)$. Если при каждом $k$ величина $α_k$ определяется из условия одномерной минимизации функции $f(x_{k+1})$ по $α_k$, то приходят к методу наискорейшего спуска. Существуют также методы, называемые $s$-шаговыми, в которых новая точка $x_k$ определяется по $s$ предыдущим точкам. Одним из простейших двухшаговых методов является метод сопряжённого градиента, в котором $$x_{k+1}=x_k-α_kf_x(x_k)+β_k(x_k-x_{k-1}),$$ где $α_k⩾0,\, β_k⩾0$ – параметры, определяемые решением задачи двумерной минимизации $f(x_{k+1})$ по $α_k$ и $β_k$.
К третьему классу относится метод Ньютона и его модификации. Предполагается, что функция $f$ дважды дифференцируема. Точка $x_{k+1}$ вычисляется по формуле $$x_{k+1}=x_k - α_k f_{xx}^{-1} (x_k) f_x (x_k),$$ где $f_{xx}^{-1}(x_k)$ – матрица, обратная к матрице вторых производных $f_{xx}(x_k)$. При $α_k≡1$ этот метод называется методом Ньютона и часто применяется при решении прикладных задач. Недостатком этого метода является трудоёмкость вычислений и локальный характер сходимости.
Существуют модификации метода Ньютона. В некоторых из них для уменьшения времени расчётов матрица $f_{xx}(x_k)$ фиксируется на нескольких подряд идущих шагах. В др. вариантах шаг $α_k$ выбирается из условия минимума значения функции $f(x_{k+1})$ либо нормы её градиента.
Перечисленные Б. м. м. предназначены для отыскания локальных минимумов функции $f(x)$, и только для выпуклых функций найденные решения дают глобальный минимум. Задача о поиске минимума ещё более усложняется в случае отыскания условного минимума, когда на значения аргумента $x$ налагаются дополнит. ограничения.