batchsize的正确选择是为了在内存效率和内存容量之间寻找最佳平衡
相对于正常数据集,如果Batch_Size过小,训练数据就会非常难收敛,从而导致underfitting。
增大Batch_Size,相对处理速度加快。
增大Batch_Size,所需内存容量增加(epoch的次数需要增加以达到最好的结果)
这里我们发现上面两个矛盾的问题,因为当epoch增加以后同样也会导致耗时增加从而速度下降。因此我们需要寻找最好的Batch_Size。
再次重申:Batch_Size的正确选择是为了在内存效率和内存容量之间寻找最佳平衡。
本文探讨了Batch_Size在机器学习中的重要性。Batch_Size过小会导致训练数据难以收敛,而过大则会增加内存需求并可能降低处理速度。文章强调了在内存效率与内存容量之间找到最佳Batch_Size的重要性。

被折叠的 条评论
为什么被折叠?



