让以及收敛的网络继续train下去

本文探讨了通过调整超参数如batch size和学习率来改进模型收敛状态的方法。初始设置可能导致模型在非最优位置震荡,适当调整这些参数有助于达到更优解。

有时候在某些 hyperparameter.设定下model train得收敛了,但是其实更改hyperparameter.,可以收敛到一个更好的status,

比如batch size,最开始因为选的比较小,最后在optimal的位置来回震荡,这时候增大batch size或者调低lr说不定可以收敛到一个更好的status



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值