今天跑一个模型的时候,报了一个错:
RuntimeError: grad can be implicitly created only for scalar outputs
关于这个错出现的原因,可以参考博文,这里不做多余的解释:grad can be implicitly created only for scalar outputs-优快云博客
解决:
然后呢,最直接的原因就是说,你的损失值有问题,在你的反向传播的这些损失当中,比如你由好几个损失,然后这个几个损失相加:
self.loss_G = self.loss_L1 * self.opt.lambda_L1 + self.loss_G_GAN * self.opt.lambda_Gan + \
self.Perceptual_loss * self.opt.lambda_P + self.Style_Loss * self.opt.lambda_S
最后的反向传播是:
self.loss_G.backward()
所以,报这个错很大可能就是这个:self.loss_G出错了,你就把相加的这几个损失都检查一遍,如果某一个损失没有值,或者这个值有问题,那么你就返回去看看这个损失值计算的数据当中是否有问题,改一改就行。
最简单的方法:
把相加的几个损失分别代替self.loss_G进行反向传播,比如检查第一个损失:
self.loss_L1.backward(),运行代码,若没报错就说明这个损失没问题,挨个挨个试,反正也就这么几个损失,哪一个报错就收吗哪一个损失有问题,改一下这个损失,或者干脆不要这个损失就行。