1.batch_size与epoch
batch_size 表示每次处理的样本的数目,loss=loss(x1)+loss(x2)+…loss(x_batch_size)=f(w1)+f(w2)+…f(w_n)
f(w)表示从众多loss中提取的w_m的分量之和,其实不这么写也没关系,不过是求偏导的时候变成求众loss对某w的偏导之和
epoch_num: 表示要训练几轮,每一轮所有的样本都会参加,分数次进行,每一次选batch_size个样本来训练模型并进行一次模型的权重更新
2.图像输入与卷积层各维度对应的意义
图像



卷积核:(n,d,w,h),可以认为是n表示多少个(输出)通道,d表示每个通道的深度,w与h表示长宽
图像:(n,c,w,h),n表示批量数,c表示每个批量的深度(灰度图为1.rgb图为3),w与h表示长宽
本文详细探讨了batch_size在训练中的作用,即每次迭代处理的样本数量,以及epoch的概念,即模型完整遍历所有样本的次数。同时,对图像输入与卷积层的维度进行了清晰的对应解释。
4589

被折叠的 条评论
为什么被折叠?



