PyTorch 从tensor.grad 看 backward(权重参数) 和 gradient accumulated

1. 新建一个自变量 tensor x

import torch

x = torch.ones(1, requires_grad=True)
print(x)

1. 输出:

tensor([1.], requires_grad=True)

2. 写一个 forward

import torch

x = torch.ones(1, requires_grad=True)
y = x**2
z = x**3

3. y, z 都 backward

import torch

x = torch.ones(1, requires_grad=True)
y = x**2
z = x**3

y.backward()
z.backward()

print(x.grad)

3.输出

tensor([5.])

4. 单独 y backward

import torch

x = torch.ones(1, requires_grad=True)
y = x**2
z = x**3

y.backward()

print(x.grad)

4. 输出

tensor([2.])

5. 单独 z backward

import torch

x = torch.ones(1, requires_grad=True)
y = x**2
z = x**3

z.backward()

print(x.grad)

5. 输出

tensor([3.])

6. tensor.grad.zero_()

import torch

x = torch.ones(1, requires_grad=True)
y = x**2
y.backward()
print(x.grad)

x.grad.zero_()
z = x**3
z.backward()
print(x.grad)

输出:

tensor([2.])
tensor([3.])

向量形式

注意由于 x 此时不是标量,所以 执行 y.backward()的时候必须给一个参数。
参数的含义是权重。
gradient=torch.ones(y.size()) 中的 gradient 参数指定了每个 y 元素对于 x的梯度的权重。在这里,gradient 设置为全1的张量,表示每个 y 元素对于损失函数的梯度权重都是1。

这意味着所有的梯度将被等权重地传播回输入 x。如果你想要为不同的元素分配不同的权重,你可以修改 gradient 参数以实现不同的梯度计算策略。

import torch

x = torch.tensor([[-1.5], [2.7]], requires_grad=True)
print(x)

y = torch.empty([3,1])
y[0] = x[0]**2
y[1] = x[1]**3
y[2] = x[1]**4
y.backward(gradient=torch.ones(y.size()))
print(x.grad)


dy0 = 2*x[0]
dy1 = 3*x[1]**2
dy2 = 4*x[1]**3

dy_dx0 = dy0
dy_dx1 = dy1+dy2

print(dy_dx0)
print(dy_dx1)

输出

tensor([[-1.5000],
        [ 2.7000]], requires_grad=True)

tensor([[ -3.0000],
        [100.6020]])
        
tensor([-3.], grad_fn=<MulBackward0>)
tensor([100.6020], grad_fn=<AddBackward0>)

权重不一样

import torch

x = torch.tensor([[-1.5], [2.7]], requires_grad=True)
print(x)

y = torch.empty([3,1])
y[0] = x[0]**2
y[1] = x[1]**3
y[2] = x[1]**4
y.backward(gradient=torch.tensor([[0.5],[-2.],[1.5]]))
print(x.grad)


dy0 = 2*x[0]
dy1 = 3*x[1]**2
dy2 = 4*x[1]**3

dy_dx0 = 0.5*dy0
dy_dx1 = -2*dy1+1.5*dy2

print(dy_dx0)
print(dy_dx1)

输出

tensor([[-1.5000],
        [ 2.7000]], requires_grad=True)
tensor([[-1.5000],
        [74.3580]])
tensor([-1.5000], grad_fn=<MulBackward0>)
tensor([74.3580], grad_fn=<AddBackward0>)
### 如何区分项目中使用的深度学习框架 为了判断一个项目使用的是 PyTorch 还是 TensorFlow,可以从以下几个方面入手: #### 1. 文件扩展名模块导入 通过查看项目的源代码文件,可以发现不同框架特有的模块名称。 - **PyTorch**: 使用 `torch` 或其子模块(如 `torch.nn`, `torch.optim`)。如果看到这些模块被导入,则表明该项目可能基于 PyTorch 构建[^4]。 - **TensorFlow/Keras**: 常见的模块有 `tensorflow` 或缩写形式 `tf`,有时也会单独引入 Keras (`keras.models`)。这通常意味着项目依赖于 TensorFlow 的生态体系[^2]。 #### 2. 数据结构与张量表示 不同的框架定义了各自的张量对象用于存储数据: - 在 **PyTorch** 中,核心的数据类型为 `torch.Tensor`,并且操作函数大多以前缀 `torch.` 开头。 - 对应到 **TensorFlow** 上,默认采用的是 `tf.Tensor` 类型;而当结合 Keras 高层 API 编程时,可能会更多地见到像 Sequential 模型或者 Functional API 定义网络的方式[^1]。 #### 3. 训练循环风格 训练过程的设计也反映了所选用框架的习惯: - **PyTorch** 提倡手动编写灵活的训练脚本,允许开发者完全控制前向传播、反向梯度计算以及参数更新逻辑[^3]。例如下面展示了一个典型的自定义训练步骤片段: ```python import torch model = SomeModel() criterion = torch.nn.CrossEntropyLoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) for epoch in range(num_epochs): for inputs, labels in dataloader: outputs = model(inputs) # Forward pass loss = criterion(outputs, labels) # Compute Loss optimizer.zero_grad() # Clear gradients w.r.t parameters loss.backward() # Backward pass to compute accumulated gradient optimizer.step() # Update parameters based on the computed gradients. ``` - 而对于 **TensorFlow (尤其是版本2.x)** 来说,虽然支持 eager execution 并模仿 imperative programming style ,但更推荐利用内置 fit 方法简化常规流程管理: ```python from tensorflow.keras.models import Model from tensorflow.keras.layers import Dense, Input input_layer = Input(shape=(input_dim,)) hidden_layer = Dense(64, activation='relu')(input_layer) output_layer = Dense(output_dim)(hidden_layer) model = Model(inputs=input_layer, outputs=output_layer) model.compile(optimizer="adam", loss="mse") history = model.fit(x_train, y_train, epochs=num_epochs, batch_size=batch_size) ``` #### 4. 可视化工具链路 两套系统分别配套专属可视化解决方案辅助调试分析工作流成果表现情况: - **PyTorch** 用户经常搭配 TensorBoardX 或 Visdom 实现监控记录功能; - 同样地,**TensorFlow** 自带完整的 tensorboard 插件集成机制方便追踪实验指标变化趋势。 综上所述,依据上述特征即可有效辨别目标工程究竟采纳何种技术栈完成开发任务需求[^2].
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

培之

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值