一些专业术语的理解

本文详细解释了深度学习训练中的关键概念:batch、iterator和epoch,以及它们如何共同作用于模型训练过程。同时,深入探讨了‘端到端’学习理念,对比传统‘分治法’,阐述其在全局最优解获取上的优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 batch、Iterator、epoch

batchsize: 批大小。每次训练取的数据量

iterator:迭代次数。训练完全部数据所运行的batch个数,1个iteraror相当于用一个batch训练一次

epoch:训练集中所有的数据都训练了,叫做一个epoch。一般epoch个数不为1。

eg:trainsets_size = 10000, batchsize = 1000 ,那么,用过全部的trainsets训练模型,需要1个epoch,10次iterator。

        如果eopch = 17,训练完第一个epoch之后,计算了损失,会继续开始第二个epoch的训练。

2 “端到端”思想

        与“端到端”相对的一种方法是“分治法”。过去解决一个人工智能问题(以图像识别为例)往往通过分治法将其分解为预处理、特征提取与选择、分类器设计等步骤。

        分治法通过将母问题分解成若干个小的简单可控的子问题,尽管在子问题上可以得到最优解,但子问题的最优解并不意味着就能得到全局的最优解。

        端到端:在整个学习流程中并不进行人为的子问题划分,而是完全交给深度学习模型直接学得从原始输入到期望输出的映射。

        相比分治策略,“端到端”的学习方式具有协同增效的优势,有更大可能获得全局最优解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值