pytorch GradScale 梯度缩放算子

本文介绍了如何在PyTorch中利用Tensor.register_hook和自定义GradScaleOp类实现梯度缩放,通过实例展示了如何在StyleGAN的MapNet中类似权重缩放的方式调整学习率。两种方法分别展示了动态调整和内嵌操作的灵活性。
部署运行你感兴趣的模型镜像

很早前就想弄这东西,正好有空。
这个东西可以很方便的缩放指定层或指定Tensor的梯度。与调整对应变量的学习率一个效果。
Stylegan 里面 MapNet 使用了另外一种基于权重缩放的 学习率缩放方式,算了,效果差不多。

有两个方便的方法可以实现。

  1. 使用 Tensor.register_hook 来调整
import torch

x = torch.ones(1, dtype=torch.float32, requires_grad=True)

y = x + 0
y.backward()
# 可以看到 x.grad 值为1
print(x.item(), y.item(), x.grad.item())

del x.grad

y = x + 0
y.register_hook(lambda g: g*0.1)
y.backward()
# 可以看到 x.grad 值为0.1,成功缩放梯度
print(x.item(), y.item(), x.grad.item())

  1. 写一个反传算子来实现
import torch
import torch.autograd


class GradScaleOp(torch.autograd.Function):
    @staticmethod
    def forward(ctx, x, scale):
        scale = torch.as_tensor(scale, dtype=x.dtype, device=x.device)
        ctx.save_for_backward(scale)
        return x

    @staticmethod
    def backward(ctx, grad_output):
        s, = ctx.saved_tensors
        return grad_output * s, None

gradscale = GradScaleOp.apply

x = torch.ones(1, dtype=torch.float32, requires_grad=True)

y = x + 0
y.backward()
# 可以看到 x.grad 值为1
print(x.item(), y.item(), x.grad.item())

del x.grad

y = x + 0
y = gradscale(y, 0.1)
y.backward()
# 可以看到 x.grad 值为0.1,成功缩放梯度
print(x.item(), y.item(), x.grad.item())

您可能感兴趣的与本文相关的镜像

Python3.10

Python3.10

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值