损失函数反向传播时报错

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.cuda.FloatTensor [2048]] is at version 4; expected version 3 instead. Hint: enable anomaly detection to find the operation that failed to compute its gradient, with torch.autograd.set_detect_anomaly(True).

torch.cuda.FloatTensor [2048]] is at version 4; expected version 3 instead. 

按照网上的教程,修改inplace=False。并将代码中a+=b等运算换成a=a+b。程序依然报错。在此记录一下我的解决方案。

首先根据报错的张量大小找到可能出错的网络分支。

然后这个错误是由于反向传播中需要的一个变量被修改了,我当时的情况是第一次loss能传播,但第二次会报错,后来发现是自己有一个特征提取的变量(需要反向传播的变量)放在了batch循环外面,所以第一次loss反向传播结束后会修改这个值,导致第二次报错。

所以将这个变量放进循环,第二次循环会重新赋值。解决问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值