深度学习调参技巧

文章探讨了网络模型训练中的一些关键技巧,如调整batchsize、学习率策略和正则化方法。同时,解释了过拟合的概念及其危害,提供了解决过拟合的策略,如交叉验证、数据增强和正则化技术。此外,还提到了模型不收敛的原因及相应的解决办法,如归一化和选择合适的学习率。

一、常用的网络模型训练技巧?

使用更大的 batch size。使用更大的 batch size 可以加快训练的进度。但是对于凸优化问题,收敛速度会随着 batch size 的增加而降低。所以在相同的 epoch 下,使用更大的 batch size 可能会导致验证集的 acc更低。所以可以使用以下技巧来解决问题。
(1) linear scaling learning rate。使用更大的学习率,例如,当我们选择初始学习率为 0.1, batch size 为 256,当将 batch size 增大至 b 时,需要将初始学习率增加至 0.1 * b / 256

(2) learning rate warm up。选择前 n\mathrm{n}n 个 epoch 进行 warm up, 在这 n\mathrm{n}n 个 epoch 中线性地增加学习率至初始学习率, 在正常地进行 decay。

(3) zero γ\gammaγ 。在 residual block 中的 BN\mathrm{BN}BN 中, 首先进行标准化输入 x\mathrm{x}x, 得 到 x^\hat{x}x^

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值