本文翻译、整理自Autograd官方documentation
本文讲解了Autograd——pytorch中用于自动求微分的模块。下面的内容不需全部掌握,但读一下还有有助于加强理解的。
在backward的过程中排除一部分子图
Tensor的属性requires_grad代表它是否需要求梯度。注意除了这个属性除了可以被显式地设置性之外,还会被一个规则所定义:
如果一个Tensor A A 由其他Tensor
本文详细介绍了PyTorch的Autograd模块,讲解了如何在反向传播过程中排除子图,Autograd如何记录计算历史信息,以及在使用in-place operations时需要注意的问题和正确性检查机制,帮助读者深入理解自动微分和计算图的工作原理。
本文翻译、整理自Autograd官方documentation
本文讲解了Autograd——pytorch中用于自动求微分的模块。下面的内容不需全部掌握,但读一下还有有助于加强理解的。
Tensor的属性requires_grad代表它是否需要求梯度。注意除了这个属性除了可以被显式地设置性之外,还会被一个规则所定义:
如果一个Tensor A A 由其他Tensor
759
939

被折叠的 条评论
为什么被折叠?