- 博客(3)
- 资源 (5)
- 收藏
- 关注
原创 pytorch create_graph retain_graph
Retain_graph and Create_graph作用retain_graph的作用a = torch.tensor(1, requries_grad=True)b = torch.tensor(1, requries_grad=True)c = a**2d=b*cc.backward()d.backward()这段代码中,执行完c.bckward()之后graph会自动free,无法计算d.backward(). 如果retain_graph=True则可以计算d.backw
2021-05-14 08:57:34
971
原创 测试Pytorch的AutoGrad
测试Pytorch的Autograd一系列功能,包括动态图的is_leaf,grad_fn,requires_grad,grad_fn等属性,detach方法,以及Tensor,Variable的区别,backward方法的计算方式
2019-02-01 11:35:42
261
原创 pytorch中自定义反向传播,求导
pytorch中自定义backward()函数。在图像处理过程中,我们有时候会使用自己定义的算法处理图像,这些算法多是基于numpy或者scipy等包。那么如何将自定义算法的梯度加入到pytorch的计算图中,能使用Loss.backward()操作自动求导并优化呢。下面的代码展示了这个功能`import torchimport numpy as npfrom PIL import Imag...
2019-02-01 11:34:48
6375
2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人