牛顿法及拟牛顿法笔记

牛顿法

二阶优化算法又称为牛顿法,牛顿法是微积分学中, 通过迭代以求解可微函数f的零点的一种算法,而在最优化中,牛顿法通常被运用于求解一个二次可微函数f的一阶导数f’的零点x, 同时也是f的驻点。 因此从另一个角度而言,应用于最优化中的牛顿法是求解函数 f(x)的最小值或最大值的一种算法。

考虑无约束最优化问题

minx∈Rnf(x) min _{x \in R^n} f(x) minxRnf(x)
其中$ x^* $是目标函数的最小点

假设f(x)具有二阶连续偏导数,设第k次迭代值是x(k)x^{(k)}x(k),则可以将f(x)在x(k)x^{(k)}x(k)处进行泰勒二次展开:
f(x)=f(x(k))+gkT(x−x(k))+1/2(x−x(k))H(x(k))(x−x(k)) f(x) = f(x^{(k)}) + g_k^T(x - x^{(k)}) + 1/2(x-x^{(k)})H(x^{(k)})(x-x^{(k)}) f(x)=f(x(k))+gkT(xx(k))+1/2(xx(k))H(x(k))(xx(k))

其中gkT=∇f(x(k)),H(x(k))g_k^T = \nabla f(x^{(k)}), H(x^{(k)})gkT=f(x(k)),H(x(k))是f(x)的Hessain矩阵

H(x)=[∂2f(x)∂xi∂xj] H(x) = [\frac {\partial ^2f(x)} { \partial x_i \partial x_j}] H(x)=[xixj2f(x)]

函数f(x)有极值的必要条件是极值点一阶导数是0

那么对f(x)的泰勒展开求导并令导数为0得到如下,并令x(k+1)x^{(k+1)}x(k+1)为下一次迭代的值

gk+Hk(x(k+1)−x(k))=0 g_k + H_k (x^{(k+1)} - x^{(k)}) = 0gk+Hk(x(k+1)x(k))=0

那么就可以得到
x(k+1)=x(k)+pk x^{(k+1)} = x^{(k)} + p_kx(k+1)=x(k)+pk
其中, pkp_kpk 包含了这次的迭代方向,他由下面这个式子决定
Hkpk=−gk H_k p_k = -g_k Hkpk=gk
如果HkH_kHk可逆,则有
x(k+1)=x(k)−Hk−1gk x^{(k+1)} = x^{(k)} - H_k ^{-1}g_kx(k+1)=x(k)Hk1gk

拟牛顿法

上述牛顿法需要计算Hessain的逆,通常这一计算需要耗费很多时间,而我们需要的只是Hessain里面所包含的曲率信息.所以拟牛顿想法就是构造出一个矩阵包含我们需要的信息
相关的拟牛顿方法有DFP, BFGS, Broyden类算法

拟牛顿条件

这里我们看牛顿法中需要满足的条件
gk+Hk(x(k+1)−x(k))=gk+1=>Hk(x(k+1)−x(k))=gk+1−gk g_k + H_k (x^{(k+1)} - x^{(k)}) = g_{k+1} => H_k (x^{(k+1)} - x^{(k)}) = g_{k+1} - g_kgk+Hk(x(k+1)x(k))=gk+1=>Hk(x(k+1)x(k))=gk+1gk

现在记yk=gk+1−gk,δk=x(k+1)−x(k)y_k = g_{k+1} - g_{k}, \delta _k = x^{(k+1)} - x^{(k)}yk=gk+1gk,δk=x(k+1)x(k),得到如下
yk=Hkδk y_k = H_k \delta _kyk=Hkδk 或者 Hk−1yk=δk H _k ^{-1} y_k = \delta _kHk1yk=δk

这两个式子就称为拟牛顿条件
在构造的时候Hessain的逆需要时正定的,因为这样可以保证求出的p是下降方向
拟牛顿Hessain逆需要是正定的

拟牛顿法的构造思路

构造思路

DFP

DFP1
DFP2

BFGS

BFGS1
BFGS2

详情看《统计学习方法》中的附录B

参考文献

  1. 《统计学习方法》 -李航
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值