- 博客(2)
- 收藏
- 关注
原创 Pytorch 学习2
调用 tensor.data,可以得到 tensor的数据 + requires_grad=False 的版本,而且二者共享储存空间,也就是如果修改其中一个,另一个也会变。官方建议使用 tensor.detach() 来替代它,二者作用相似,但是 detach 会被自动求导系统追踪,使用起来很安全. 对于每个batch大都执行了这样的操作: # zero the parameter gradients optimizer.zero_grad() # forward + backward + opt.
2022-01-10 17:55:51
493
原创 Pytorch学习1
设置为CPU还是GPU: device = torch.device(“cuda” if (use_cuda and torch.cuda.is_available()) else “cpu”) device = torch.device(“cpu”) 将一个array转换成tensor: I0=torch.from_numpy(I00) 记录一个tensor的梯度: alpha = alpha.to(device) alpha.requires_grad = True 想要I0和 I1一致: 用: I
2022-01-09 23:57:37
669
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人