(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
(2)iteration:1个iteration等于使用batchsize个样本训练一次;
(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;
举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration,1次epoch。
参考:
https://www.jianshu.com/p/005d05e18c7d
https://blog.youkuaiyun.com/weixin_40893448/article/details/116546087
博客介绍了深度学习中的重要概念。batchsize指批大小,SGD训练时每次取batchsize个样本;1个iteration是用batchsize个样本训练一次;1个epoch是用训练集全部样本训练一次。还举例说明,如1000个样本、batchsize为10时,需100次iteration和1次epoch完成训练。
1万+

被折叠的 条评论
为什么被折叠?



