1、Tensor的requires_grad属性设置为True时
当Tensor的requires_grad属性设置为True时,PyTorch 的torch.autograd会自动追踪它的计算轨迹。当需要计算微分时,只需要对最终计算结果的Tensor调用backward方法,所有计算节点的微分就会被保存在grad属性。
(1)

输出:

(2)

输出:

(3)

输出:
当Tensor的requires_grad属性设置为True时,PyTorch 的torch.autograd会自动追踪它的计算轨迹。当需要计算微分时,只需要对最终计算结果的Tensor调用backward方法,所有计算节点的微分就会被保存在grad属性。
(1)

输出:

(2)

输出:

(3)

输出:
1232

被折叠的 条评论
为什么被折叠?