1 batch、Iterator、epoch
batchsize: 批大小。每次训练取的数据量
iterator:迭代次数。训练完全部数据所运行的batch个数,1个iteraror相当于用一个batch训练一次
epoch:训练集中所有的数据都训练了,叫做一个epoch。一般epoch个数不为1。
eg:trainsets_size = 10000, batchsize = 1000 ,那么,用过全部的trainsets训练模型,需要1个epoch,10次iterator。
如果eopch = 17,训练完第一个epoch之后,计算了损失,会继续开始第二个epoch的训练。
2 “端到端”思想
与“端到端”相对的一种方法是“分治法”。过去解决一个人工智能问题(以图像识别为例)往往通过分治法将其分解为预处理、特征提取与选择、分类器设计等步骤。
分治法通过将母问题分解成若干个小的简单可控的子问题,尽管在子问题上可以得到最优解,但子问题的最优解并不意味着就能得到全局的最优解。
端到端:在整个学习流程中并不进行人为的子问题划分,而是完全交给深度学习模型直接学得从原始输入到期望输出的映射。
相比分治策略,“端到端”的学习方式具有协同增效的优势,有更大可能获得全局最优解。