[机器学习必知必会]牛顿法和拟牛顿法

本文详细介绍了牛顿法和拟牛顿法在无约束最优化问题中的应用,包括泰勒展开、海森矩阵的概念,以及单变量和多变量情况下的牛顿法迭代公式,最后对比了牛顿法和拟牛顿法的区别,并列举了几种常见的拟牛顿法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

同梯度下降法一样,牛顿法和拟牛顿法也是求解无约束最优化问题的常用方法。牛顿法本身属于迭代算法,每一步需要求解目标函数的海赛矩阵的逆矩阵,计算比较复杂。拟牛顿法通过正定矩阵近似海赛矩阵的逆矩阵或海赛矩阵,简化了这一计算过程。

需要提前了解的知识

泰勒展开

f(x)f(x)f(x)x=x0x=x_0x=x0处具有nnn阶连续导数,我们可以用x−x0x-x_0xx0nnn次多项式逼近函数

公式:
f(x)=f(x0)0!+f′(x0)1!(x−x0)+f′′(x0)2!(x−x0)2+...+f(n)(x0)n!(x−x0)n+Rn(x) f(x) = \frac{f(x_0)}{0!}+\frac{f'(x_0)}{1!}(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R^n(x) f(x)=0!f(x0)+1!f(x0)(xx0)+2!f(x0)(xx0)2+...+n!f(n)(x0)(xx0)n+Rn(x)
其中Rn(x)R^n(x)Rn(x)表示泰勒余项,它是(x−x0)n(x-x_0)^n(xx0)n的高阶无穷小。

海森矩阵

Hessian Matrix,是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率

以二元函数f(x1,x2)f(x_1,x_2)f(x1,x2)为例,它在X(0)(x1(0),x2(0))X^{(0)}(x_1^{(0)},x_2^{(0)})X(0)(x1(0),x2(0))点处的泰勒展开式为:
f(x1,x2)=f(x1(0),x2(0))+∂f∂x1∣X(0)△x1+∂f∂x2∣X(0)△x2+12[∂2f∂x12∣X(0)△x12+∂2f∂x1∂x2∣X(0)△x1△x2+∂2f∂x22∣X(0)△x22]+... f(x_1,x_2) = f(x_1^{(0)},x_2^{(0)})+ \frac{\partial{f}}{\partial{x_1}}\Big|_{X^{(0)}} \triangle x_1 + \frac{\partial{f}}{\partial{x_2}}\Big|_{X^{(0)}} \triangle x_2 + \frac{1}{2} \bigg[ \frac{\partial ^2{f}}{\partial{x_1^2}}\Big|_{X^{(0)}} \triangle x_1^2 + \frac{\partial ^2{f}}{\partial{x_1}\partial{x_2}}\Big|_{X^{(0)}} \triangle x_1 \triangle x_2+ \frac{\partial ^2{f}}{\partial{x_2^2}}\Big|_{X^{(0)}} \triangle x_2^2 \bigg]+ ... f(x1,x2)=f(x1(0),x2(0))+x1fX(0)x1+x2fX(0)x2+21[x122fX(0)x12+x1x22fX(0)x1x2+x222fX(0)x22]+...
其中△x1=x1−x1(0),△x2=x2−x2(0)\triangle x_1 = x_1 - x_1^{(0)}, \triangle x_2 = x_2 - x_2^{(0)}x1=x1x1(0),x2=x2x2(0)
改写成矩阵形式:
f(X)=f(X(0))+[∂f∂x1+∂f∂x2]∣X(0)(△x1△x2)+12(△x1,△x2)(∂2f∂x12∂2f∂x1∂x2∂2f∂x2∂x1∂2f∂x22)∣X(0)(△x1△x2)+... f(X) = f(X^{(0)}) +\bigg [\frac{\partial f}{\partial x_1} + \frac{\partial f}{\partial x_2}\bigg ] \bigg|_{X^{(0)}} \begin{pmatrix}\triangle x_1\\ \triangle x_2\end{pmatrix} +\frac{1}{2} (\triangle x_1 , \triangle x_2)\begin{pmatrix}\frac{\partial ^2f}{\partial x_1^2} & \frac{\partial ^2f}{\partial x_1 \partial x_2}\\ \frac{\partial ^2f}{\partial x_2 \partial x_1} & \frac{\partial ^2f}{\partial x_2^2} \end{pmatrix}\bigg|_{X^{(0)}}\begin{pmatrix}\triangle x_1\\ \triangle x_2\end{pmatrix}+ ... f(X)=f(X(0))+[x1f+x2f]X(0)(x1x2)+21(x1,x2)(x122fx2x12fx1x22fx222f)X(0)(x1x2)+...
即:
f(X)=f(X(0))+▽f(X(0))T△X+12△XTH(X(0))△X+... f(X) = f(X^{(0)}) + \triangledown f(X^{(0)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(0)}) \triangle X +... f(X)=f(X(0))+f(X(0))TX+21XTH(X(0))X+...
其中H(X(0))H(X^{(0)})H(X(0))即二元函数f(x1,x2)f(x_1,x_2)f(x1,x2)X(0)X^{(0)}X(0)点处的海森矩阵,即二阶偏导数组成的方阵;▽f(X(0))\triangledown f(X^{(0)})f(X(0))是函数在该点处的梯度。

牛顿法

考虑无约束最优化问题:
min⁡xf(x) \min_{x}f(x) xminf(x)

首先讨论单自变量情况

假设f(x)f(x)f(x)具有二阶连续导数,运用迭代的思想,我们假设第kkk次迭代值为x(k)x^{(k)}x(k), 将f(x)f(x)f(x)进行二阶泰勒展开:
f(x)=f(x(k))+f′(x(k))(x−x(k))+12f′′(x(k))(x−x(k))2+R2(x) f(x)=f(x^{(k)})+f'(x^{(k)})(x-x^{(k)})+\frac{1}{2}f''(x^{(k)})(x-x^{(k)})^2+R_2(x) f(x)=f(x(k))+f(x(k))(xx(k))+21f(x(k))(xx(k))2+R2(x)

其中R2(x)R_2(x)R2(x)(x−x(k))2(x-x^{(k)})^2(xx(k))2的高阶无穷小,也叫做泰勒余项。

由于二阶可导,函数f(x)f(x)f(x)有极值的必要条件是极值点处一阶导数为0,令f′(x)f'(x)f(x)为0解出x(k+1)x^{(k+1)}x(k+1)
f′(x(k))+f′′(x(k))(x−x(k))=0 f'(x^{(k)})+f''(x^{(k)})(x-x^{(k)})=0 f(x(k))+f(x(k))(xx(k))=0
x(k+1)=x(k)−f′(x(k))f′′(x(k)) x^{(k+1)} = x^{(k)} - \frac{f'(x^{(k)})}{f''(x^{(k)})} x(k+1)=x(k)f(x(k))f(x(k))
至此,当数列满足收敛条件时我们可以构造一个初始值x(0)x^{(0)}x(0)和上述递推公式得到一个数列{x(k)}\{x^{(k)}\}{x(k)}不停地逼近极小值点

多自变量的情况

按照前面海森矩阵的介绍,在多自变量情况下,二阶泰勒展开式可写为:
f(X)=f(X(k))+▽f(X(k))T△X+12△XTH(X(k))△X+... f(X) = f(X^{(k)}) + \triangledown f(X^{(k)})^T \triangle X + \frac{1}{2} \triangle X^T H(X^{(k)}) \triangle X + ... f(X)=f(X(k))+f(X(k))TX+21XTH(X(k))X+...
函数f(X)f(X)f(X)极值必要条件要求它必须是f(X)f(X)f(X)的驻点,即:
▽f(X)=0 \triangledown f(X) = 0 f(X)=0
由于▽f(X(k))\triangledown f(X^{(k)})f(X(k))H(X(k))=▽2f(X(k))H(X^{(k)}) = \triangledown ^2f(X^{(k)})H(X(k))=2f(X(k))分别表示函数f(X)f(X)f(X)的梯度和海森矩阵取值为X(k)X^{(k)}X(k)的实值向量和实值矩阵,我们分别将其记为gkg_kgkHkH_kHk,根据驻点解出X(k+1)X^{(k+1)}X(k+1)
gk+Hk(X−X(k))=0 g_k + H_k(X-X^{(k)}) = 0 gk+Hk(XX(k))=0
X(k+1)=X(k)−Hk−1gk X^{(k+1)} = X^{(k)} - H_k^{-1}g_k X(k+1)=X(k)Hk1gk
同样我们可以构造一个迭代数列不停地去逼近函数的最小值点。

拟牛顿法

在牛顿法的迭代过程中,需要计算海森矩阵H−1H^{-1}H1,一方面有计算量大的问题,另一方面当海森矩阵非正定时牛顿法也会失效,因此我们考虑用一个nnn阶矩阵Gk=G(X(k))G_k = G(X^{(k)})Gk=G(X(k))来近似替代Hk−1=H−1(X(k))H^{-1}_k = H^{-1}(X^{(k)})Hk1=H1(X(k))

拟牛顿条件

根据前面的迭代式子:
▽f(X)=gk+Hk(X−X(k))=0 \triangledown f(X) = g_k + H_k(X-X^{(k)}) = 0 f(X)=gk+Hk(XX(k))=0
X=X(k+1)X = X^{(k+1)}X=X(k+1), 我们可以得到:
gk+1−gk=Hk(X(k+1)−X(k)) g_{k+1} - g_k = H_k(X^{(k+1)} - X^{(k)}) gk+1gk=Hk(X(k+1)X(k))
yk=gk+1−gky_k = g_{k+1} - g_kyk=gk+1gk,δk=X(k+1)−X(k)\delta_k = X^{(k+1)} - X^{(k)}δk=X(k+1)X(k),那么可以得到:
yk=Hkδk y_k = H_k \delta_k yk=Hkδk

Hk−1yk=δk H_k^{-1} y_k = \delta _k Hk1yk=δk
上述两个式子就是拟牛顿条件。

常见的拟牛顿法

根据拟牛顿条件,我们可以构造不同的GkG_kGk,这里仅列出常用的几种拟牛顿法,可根据需要再学习具体实现。

  • DFP算法(Davidon-Fletcher-Powell)
  • BFGS算法(Broydeb-Fletcher-Goldfarb-Shanno)
  • Broyden类算法

Reference

李航的《统计学习方法》

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值