深度学习中一些参数的调整

本文探讨了深度学习中关键参数的影响,包括学习率、epoch和batchsize。学习率通过影响权重参数更新来决定模型训练的速度。epoch是训练完整数据集的次数,增大可能引发过拟合。batchsize影响模型收敛速度和稳定性,需要平衡显存使用。数据增强如随机裁剪、尺度变化和亮度调整有助于缓解样本不均衡问题,但过度增强可能导致信息丢失。eval_step_interval用于监控训练过程,适时调整可确保有效观察模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#学习率learning_rate
x += - learning_rate * dx

其中x表示权重参数,dx表示梯度。可以看出,学习率影响了每次参数更新值的大小

  • 调整方法
    使用一个固定的学习率来进行训练的同时观察验证集准确率,每当验证集准确率停止上升,就乘以一个常数(比如0.5)来降低学习率。一般初始可以设为0.1。

接下来一起介绍几个参数的概念:

#epoch
表示跑完全部图片的一次过程。epoch越大,训练的次数越多,但也可能造成过拟合的问题。

  • 调整方法
    一般可设置为50,如果不收敛,可以适当增加,每次增加5。

#batchsize
表示一次迭代输入的训练图片的个数。在合理范围内,增大 Batch_Size 的好处:内存利用率提高了,大矩阵乘法的并行化效率提高。跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。

太小可能存在的问题:震荡不收敛

太大可能存在的问题:1 显存爆炸 2 收敛不到谷底

  • 调整方法
    由于最终收敛精度会陷入不同的局部极值,因此 Batch_Size 增大到某些时候,达到最终收敛精度上的最优。
    可以设为100,如果显存不够用,就减小一点。

#step

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值