1.RuntimeError: One of the differentiated Tensors does not require grad
关于这个报错的意思是:有一个参数不需要计算导数
此torch.autograd.grad函数参数如下:outputs,inputs,函数功能是求outputs关于inputs的导数,此处的inputs需要加requires_grad_()定义:
v = Variable(v).to(device).requires_grad_()
2. RuntimeError: grad can be implicitly created only for scalar outputs:
在loss.backward()中报错:显然是因为此处的loss不是标量而是张量,经过反复检查发现model采用nn.DataParallel导致loss是一个张量长度为cuda数量。因此删除如下代码:
model = nn.DataParallel(model).to(device)

本文介绍了PyTorch训练过程中常见的两个错误及其解决方案。第一个错误是关于参数不需要计算导数的问题,需要确保所有输入变量都设置了requires_grad属性。第二个错误是在loss.backward()调用时遇到的,原因是loss不是一个标量,这通常由使用nn.DataParallel导致。
2176

被折叠的 条评论
为什么被折叠?



