numerical optimization

本文探讨了在梯度下降等优化算法中步长选择的重要性及方法。通过对不同算法(如最速下降法、牛顿法)的步长选择进行讨论,并介绍了在实际应用中如何根据条件调整步长。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

no 的第三章,介绍了line search methods,其实主要是在讨论如何选择步长。无论是用steepest direction还是newton method,梯度下降方向都有了,也就是pk有了,但是在这个方向上,我们要走多大步子呢。步长选择的不当,可能无法达到minimizer。而如果步长太小了,convergence太慢了。当然收敛速度还受到梯度方向的影响。


在本章中,对ak的选择给了几个condition,也给出了,在不满足条件时的调节方法。同时,作者还给出了,对steepest, newton, quasi-newton来说,在选择ak时一些参数的选择。还有,不单单是ak的选择需要慎重考虑,包括a0,即步长的初始化选择也很有学问。


可能本章中,介绍的newton method平时用不大多,因为里面太多矩阵分解什么的了,但是,本章中的步长选择是贯穿到全书,当然主要是line search method的方法中。

结合第五章中,conjugate gradient method, 我们看到在其中步长都起到了很重要的作用。但是在CG中,步长是由梯度和其它参数共同计算得到的,步长和梯度方向都很重要。 



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值