iteration 与 epoch

神经网络的神奇之处就在于权重是通过训练自动得出的所谓训练,就是让神经网络在训练数据集上跑一遍,看看损失函数的值怎么样。如果损失函数的值足够小,小到符合我们的需求,那就说明神经网络拟合得很好了,训练大功告成了(实际上并非如此,因为仅仅知道拟合得很好并不够,我们还要知道神经网络是不是拟合得太好了,也就是过拟合。所以还需要用测试数据集来测试是否过拟合。不过这里就姑且就当训练完成了把。)反之,如果损失函数的值不够小,那就还需要继续训练。

神经网络在训练数据集上跑一遍,称为一次迭代(iteration)

那么epoch又是怎么回事?

我们知道,简单来说,深度学习就是很深很深的神经网络(这一说法并不准确,但姑且让我们这么说),也就是说,有很多层,每层可能有很多神经元,结构也可能比较复杂。然后相应的,数据集也可能比较大。那跑一遍(迭代)会比较慢。所以人们就想出了一个变通的办法,就是每次只使用数据集中的部分样本,这个数目就称为batch size

虽然只使用了部分样本,但很多时候已经足以优化权重,降低损失函数了。这样训练效率高很多,训练时间也能缩短不少。

不过这样一来,一次迭代就不一定完整跑遍数据集中的所有样本了。那在比较的时候,就不太方便直接比较迭代次数了。

比如,假设深度神经网络A经过32次迭代损失函数的值足够低了,而深度神经网络B经过16次迭代损失函数的值足够低了,但实际上,A的batch size可能是256,而B的batch size可能是2048。所以直接比较A和B的迭代次数并没有什么意义。

所以就又提出了epoch这个概念,指数据集中的所有样本都跑过一遍。

Epoch(轮次)是指将训练集中的所有样本全部使用一遍的训练过程。在深度学习中,训练集通常会被分成多个批次(Batch),每个批次作为一个小的数据集进行训练。当所有的批次都训练完成后,就完成了一个Epoch的训练。Epoch的数量通常是一个超参数,需要在训练前手动设置。 Batch(批次)是指在训练过程中,将训练集分成的若干个小批次(mini-batch),每个小批次都会经过一次前向传播反向传播的过程。一个Batch中的数据量可以根据实际情况进行设置,通常是根据计算资源模型性能来确定。 Iteration(迭代)是指对一个小的数据集(Batch)进行一次训练的过程。在深度学习中,通常将一个Batch中的数据分为若干个小批次(mini-batch),每个小批次都会经过一次前向传播反向传播的过程,这个过程就是一次迭代(Iteration)。通常,一个Epoch包含多个Iteration。 所以,Epoch是整个数据集上的一次训练,Batch是对数据集进行分批处理,而Iteration是对一个小批次数据进行一次训练。它们三者是深度学习中训练模型时的基本单位,每个单位都有自己特定的含义作用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Batch、EpochIteration](https://blog.youkuaiyun.com/VIAww/article/details/129911981)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值