梯度下降与超参learning rate,weight decay,momentum

梯度下降

在这里插入图片描述
在这里插入图片描述

如何理解随机梯度下降(stochastic gradient descent,SGD)? - Evan的回答 - 知乎
https://www.zhihu.com/question/264189719/answer/291167114

Learning Rate

学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案,分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。

SGD with Momentum

深度学习优化算法总(SGD,AdaGrad,Adam等) - 刘浪的文章 - 知乎
https://zhuanlan.zhihu.com/p/61955391
使用动量(Momentum)的SGD、使用Nesterov动量的SGD - G-kdom的文章 - 知乎
https://zhuanlan.zhihu.com/p/73264637

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值