torch.autograd能够为类和函数提供自动求导。要使用它,只需要声明需要计算梯度的张量,加上requires_grad=True
即可
Variable-在pytorch 1.0版本中已经不赞成使用了,它对自动求导已经不是必须的了,只需要自动加上requires_grad=True就能自动求导了。
有如下几个不同:
①Variable(tensor) 和 Variable(tensor, requires_grad)依然工作,但返回的是tensors而不是variables类型
②var.data跟tensor.data相同了
③像var.backward(), var.detach(), var.register_hook()这些方法在tensors中名字相同而且工作方式也相同了
pytorch 文档学习---torch.autograd.Variable
最新推荐文章于 2025-01-13 18:05:16 发布