深度卷积神经网络(CNN tricks)调参技巧(一)学习率调节

本文探讨了深度卷积神经网络(CNN)调参中的学习率调节,包括其重要性、如何选取初始值以及流行的学习率调整方法如循环学习率和热启动SGD。此外,还提到了批大小对网络学习的影响,建议在训练初期使用较小的学习率以获得更好的初始化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

做卷积神经网路方面的研究,有时会遇到一些苦恼。大抵是:
1、复现别人的网络,得不到相同的表现。
2、自己的网络调参,结果调不上去。
所以有些大佬就总结了一些调参的tricks,在这里学习记录一下,然后加上一些自己的理解。
影像神经网络效果的因素可能有但不限于以下几点:

  • 学习率调节
  • 优化器
  • 初始化方法
  • 标签平滑
  • 归一化

学习率

好的学习率可以让调参过程事半功倍,那么什么是好的学习率呢,
在这里插入图片描述
source:https://sgugger.github.io/how-do-you-find-a-good-learning-rate.html
好的学习率应该是有利于网络学习到参数的,或者说损失函数能够得到有效的降低。对于这幅示意图来说就是,需要函数能够快速的到达谷底。如果学习率太大,就可能会直接错过最低点。
如果学习率太小,就可能学得太慢,同样也不可取。
那么应该如何选取初始值呢,
在这里插入图片描述
source:https://sgugger.github.io/how-do-you-find-a-good-learning-rat

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值