batch、epoch、iteration

本文解释了机器学习中Batch与Epoch的概念及其重要性。包括Batch处理如何帮助优化资源使用,以及Epoch如何定义整体训练循环的次数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

batch是批的意思,CNN处理数据是分批次处理的。作用:可以更好的处理非凸的损失函数,也能更好的利用资源。batch_size就是每批里面的个数了。

一个epoch指的是把所有的训练数据丢进神经网络中训练一次。通常我们的数据量比较大,一次性处理所有的数据效率会受到影响,这时候就会进行分批,如果一次处理一个数据,那就是Stochastic Gradient Descent,如果将数据分为若干批,就是Mini-batch Gradient Descent。分批之后每份的数量就是batch_size,而分成几份就是iteration。

epoch指的是次数,epoch = 10 指的是把整个数据集丢进神经网络训练10次。

batch size 指的是数据的个数,batch size = 20,指的是每次扔进神经网络训练的数据是20个,也就是数据分批后每批有20个数据。

iteration分批的份数,iteration = 10 指的是把整个数据集平分成10份扔进神经网络。

举个例子:100个训练数据,其中epoch=10,batch_size=20,那么iteration=?

 

 

 

 

 

 

答案是iteration=5.

上面问题的意思是,整个数据集会被训练10次(epoch),每次训练数据,将数据分成5份(iteration),每份里面有20个数据(batch_size)。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值