Loss函数通常作用于一个batch
在计算loss时,我们不会用一条数据去求梯度,进行优化。这样会导致loss波动较大,而且不利于发挥计算机并行计算的能力。我们会选择一个batch的数据,用其均值求梯度,进行优化
# 求batch内的均值
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
作者:纵横
链接:https://www.zhihu.com/question/27700702/answer/459971765
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
本文探讨了在机器学习中,为何不使用单一数据点而是采用Batch数据来计算Loss函数均值的原因。通过Batch计算可以减少loss的波动,更好地利用计算机的并行计算能力,从而提高模型训练的稳定性和效率。
2762

被折叠的 条评论
为什么被折叠?



