batchsize:批大小,比如SGD中的BP一次就是用的一批的数据
iterator:迭代次数,1个iterator相当于用一个batch训练一次
epoch:训练集中全部的数据被用过一次,叫一个epoch
举个例子,在不考虑每个batch之间发生样本交叉的情况下,假设有1000个样本,batchsize是10,那么用过全部的样本训练模型,需要1个epoch,100次iterator
---------------------
作者:GZKPeng
来源:优快云
原文:https://blog.youkuaiyun.com/zkp_987/article/details/80010617
版权声明:本文为博主原创文章,转载请附上博文链接!
本文详细解释了机器学习中Batch、Iterator与Epoch的概念。Batchsize指每次训练使用的样本数,Iterator是使用一个Batch进行训练的次数,而完成一次整个训练集的遍历则称为一个Epoch。通过实例说明,加深对这些概念的理解。
707

被折叠的 条评论
为什么被折叠?



