通过不断重置学习率来逃离局部极值点

本文探讨了在深度学习优化过程中如何通过在优化末期增大学习率来跳出局部极小值和鞍点,提高模型性能。介绍了随机漫步起跳法和历史最优起跳法两种策略,并通过实验对比了它们的效果,发现这两种方法能有效提升优化结果,尤其是在固定学习率和动态学习率调整的基础上。

/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/

                                              

                                                                                         黄通文   张俊林( 2016年12月)

                   

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值