【Numerical Optimization】7 Large-Scale Uncomstrained Optimization

本文探讨了非精确牛顿法在大规模优化问题中的应用,包括线搜索与信赖域方法下的收敛性,以及如何通过LSN-CG和TRN-CG算法确保误差满足收敛条件。同时,介绍了有限内存拟牛顿法,如L-BFGS算法,其在存储效率与收敛速度之间的平衡。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2019.02.25

  1. 拟牛顿方法近似hessian阵,而非精确牛顿方法某种意义上是对牛顿步p的近似
  2. 拟牛顿得到的近似hessian阵一般是稠密的,在大规模问题中,即使是稀疏的,也要花很大的存储,两者并不冲突;L-BFGS是对原始方法的一种减小存储量的改造,采用对此步最近的m步的(s_{i},y_{i})的存储,来随时计算第k步的H_{k}\bigtriangledown f_{k}
  3. 结合线搜索的非精确牛顿法/结合信赖域的非精确牛顿法


1  Inexact Newton Methods

牛顿方法要求Hession阵的逆,计算量大。CG、Lanczos方法;线搜索、TR搜索方法。

在线搜索和信赖域框架下,非精确牛顿法是否能保持和牛顿法一样的收敛性;非精确,顾名思义,就是与真正的牛顿步有一定差距,那这种差距满足何种条件才能保证收敛性呢?我们在以下记此差距为$r_k$.


LOCAL CONVERGENCE OF INEXACT NEWTON METHODS

迭代的终止条件一般与残差有关,残差满足一定条件则收敛,p_{k}是非精确牛顿步长:r_{k}=\bigtriangledown ^{2}f_{k}p_{k}+\bigtriangledown f_{k},且\left \| r_{k} \right \|\leq \eta _{k}\left \| \bigtriangledown f_{k} \right \|

其中,\left \{ \eta _{k} \right \}0< \eta _{k}< 1)是forcing sequence,\left \{ \eta _{k} \right \}的选择决定了收敛速率。

进一步地

以上讨论了满足误差在某序列控制下,非精确线搜索的局部收敛性及一般情况下梯度的收敛速度;但如何在具体算法中,使误差来满足这样的条件从而确保收敛呢?我们介绍LSN-CG和TRN-CG两种具体算法。


LINE SEARCH NEWTON–CG METHOD

当Hession阵奇异是,该方向的性质不好

The line search Newton–CG method does not require explicit knowledge of the Hessian  . Rather, it requires only that we can supply Hessian–vector products  of the form  \bigtriangledown ^{2}fd  for any given vector d.

内迭代中用CG方法来计算每次的方向,然后再用线搜素方法选择步长完成一次迭代;与线搜素CG方法不同的是,他在计算方向的时候允许跟真实牛顿方向有误差。


TRUST-REGION NEWTON–CG METHOD

多了信赖域的约束


PRECONDITIONING THE TRUST-REGION NEWTON–CG METHOD

预条件处理使得特征值分布更加有利与计算


TRUST-REGION NEWTON–LANCZOS METHOD

A limitation of Algorithm 7.2 is that it accepts any direction of negative curvature, even when this direction gives an insignificant reduction in the model.

 

2  Limited-Memory Quasi-Newton Methods

Instead of storing fully dense n × n approximations, they save only a few vectors of length n that represent the approximations implicitly. Despite these modest storage requirements, they often yield an acceptable (albeit linear) rate of convergence.


L-BFGS算法  基于BFGS

前m步高效计算H_{_{k}}\bigtriangledown f_{k}

 

初始值的设定如下比较有效:



3  Sparse Quasi-Newton Updates

                                                     

                                                        


4   Algorithms for Partially Separable Functions

函数可分:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值