Error:function ‘LogSoftmaxBackward‘ returned nan values in its 0th output.

本文探讨了在使用LogSoftmax函数时遇到NAN值的问题,并分析了可能的原因包括数据清洗不当和梯度爆炸等。文章提供了一种有效的解决方案:通过使用torch.nn.utils.clip_grad_norm_来裁剪梯度,从而避免NAN值的产生。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Error:function ‘LogSoftmaxBackward’ returned nan values in its 0th output.

原因分析

产生这个问题的原因可能有几种:
1.数据中出现NAN——数据清洗
2.梯度出现NAN——梯度裁减

解决方案

模型参数出现NAN,其实也是由梯度导致的,因为初始化你不可能就NAN把,那就是更新过程出现的,那肯定是梯度导致的模型参数NAN了,所以那些:让你重新初始化、降低学习率和加正则化约束模型参数、以及往log下加1e-9(其实我感觉这个不科学,logsoftmax分母为0,除非你没有数据~)的方法都没啥用。
torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm)就可以解决了。

这个问题可能是因为多层网络梯度传播爆炸了,我是训练着训练着模型就bug了,然后我把查过的方法都试过了没啥用,用torch.isnan(param).int().sum() !=0这个判断准则把输入、梯度都检查了一遍,最后得到的解决方案。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值