深度学习入门笔记手稿(十二)学习率衰减

本文探讨了通过学习率衰减来提升机器学习算法效率的方法。介绍了五种学习率衰减策略,包括基于训练轮数的倒数衰减、指数衰减、平方根衰减、离散衰减及手动调整学习率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习率衰减

加快学习算法的一个办法就是随机慢慢减少学习率
在使用mini batch梯度下降算法时,最后会在一点附近摆动,并不会真正收敛,因为学习率为固定值,不同的mini batch中有噪音
但是慢慢减少学习率,在初期学习率还比较大,但是随着学习率变小,学习不长也变慢,最后会在最小值一小块区域摆动

1.可以将学习率设置为 1/(1+decay_rate*epoch_num)
decay_rate为衰减率 epoch_num为训练迭代的次数

2.学习率=学习率*(0.95的epoch_num次方)

3.学习率=学习率*k/sqrt(epoch_num)

4.离散衰减

5.手动衰减(太慢)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值