import torch
x = torch.arange(4.0)
print(x)
x.requires_grad_(True)#存梯度
x.grad
print(x.grad)
y = 2 * torch.dot(x, x)
print(y)
#反向传播计算y关于x每个分量梯度
y.backward()
print(x.grad)
print(x.grad == 4 * x)
#默认情况会累积梯度
x.grad.zero_()
y = x * x
y.sum().backward()
print(x.grad)
自动求导(动手学深度学习v2)
最新推荐文章于 2024-06-22 09:15:04 发布
本文介绍了如何使用PyTorch进行基本的数值计算,包括创建张量、设置梯度追踪、计算乘法表达式的梯度,并演示了反向传播的过程。通过实例展示如何累积和清零梯度,讲解了在深度学习中核心的自动求导功能。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch
Cuda
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
3321

被折叠的 条评论
为什么被折叠?



