来自 https://github.com/BVLC/caffe/issues/430:
这里的意思就是batchsize和学习率是相关的,如果batchsize减小了X倍,则理论上学习率应增大sqrt(X)倍(当然这是找到最好的batchsize的情况下的),不过Alex还是用了X倍。后面 https://arxiv.org/abs/1404.5997 这个链接的论文还没看,有时间的可以看一下,好像有专门讲到batchsize的设置的
另外,batchsize最好设置为8的倍数,这样gpu的并行运算效率最高
本文探讨了batch size与学习率之间的关系,并建议当batch size减小时,学习率应相应增加以保持训练效果。此外,还提到batch size设为8的倍数有助于提高GPU并行运算效率。
6970

被折叠的 条评论
为什么被折叠?



