/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/
黄通文 张俊林( 2016年12月)
本文探讨了在深度学习优化过程中如何通过在优化末期增大学习率来跳出局部极小值和鞍点,提高模型性能。介绍了随机漫步起跳法和历史最优起跳法两种策略,并通过实验对比了它们的效果,发现这两种方法能有效提升优化结果,尤其是在固定学习率和动态学习率调整的基础上。
/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/
黄通文 张俊林( 2016年12月)
1169
1300
1817

被折叠的 条评论
为什么被折叠?