loss.backward()反向传播计算的梯度是根据loss的计算方式来的。如果loss用到了整个batch,则梯度是整个batch的梯度之和,也可能是平均,取决于loss的计算方式,如果loss只用到了batch中的某一个图,则梯度只会是这一个图的影响。
backward()反向传播后神经网络的梯度计算
最新推荐文章于 2024-05-28 11:30:31 发布
loss.backward()反向传播计算的梯度是根据loss的计算方式来的。如果loss用到了整个batch,则梯度是整个batch的梯度之和,也可能是平均,取决于loss的计算方式,如果loss只用到了batch中的某一个图,则梯度只会是这一个图的影响。