【caffe】epoch,[batch_size],iteration的含义

理解epoch与batch
本文解释了机器学习中epoch和batch的概念。一个epoch是指处理完整个训练集一次,而batch则是将训练集分为若干个小批量进行处理。文中还介绍了batch_size和train_iter的含义。

@tags caffe 概念

一个epoch表示“大层面上的一次迭代”,也就是指,(假定是训练阶段)处理完所有训练图片,叫一个epoch

但是每次训练图片可能特别多,内存/显存塞不下,那么每个epoch内,将图片分成一小堆一小堆的,每一小堆图片数量相等,每一小堆就是一个batch(批次)。

因而,一个epoch内,就要处理多个batch。

batch_size表示的是,每个batch内有多少张图片。

而一个epoch,一共需要分成多少个batch呢?这个batch的数目,就叫做train_iter(训练阶段)或者test_iter(测试阶段)

总结:

train_iter * batch_size = 一个epoch要处理的所有图片(可能因为整除的原因,不严格相等,让左边略大即可。训练阶段)

或者:
train_iter * batch_size = 一个epoch要处理的所有图片(测试阶段。)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值