TensorFlow出现Found Inf or NaN global norm的排查和解决办法

在训练神经网络的时候,由于一些原因会出现NaN或者Inf,致使训练终止。在查阅相关资料之后,并且结合我出现的问题,做了一些总结。出现的代码在TensorFlow 1.12.2版本可正常执行。

出现问题的原因

出现NaN或者Inf的原因一般可分为以下三种

  1. 输入数据有错
  2. 出现了运算错误,如除数为零,log0等
  3. 梯度爆炸

输入数据有错

训练数据可能包含脏数据,在数据清洗时没有清洗干净,导致错误数据输入进模型。首先可以在输入模型前,使用np.any(np.isnan(data))来判断数据是否由nan。若没有,要考虑到数据的实际约束,如在我查阅资料时,看到有人输入数据包含最大值和最小值,但是错误数据的最大值和最小值反了,导致模型训练出错。这一部分要根据具体情况进行具体排查。

运算错误

检查模型中除法的分母是否为0,如果有0在结合实际情况进行修改。如果损失函数用到交叉熵,或者取log,也要注意0是否出现。如果判断出有0了,可以使用tf.clip_by_value对值进行限制。

梯度爆炸

常见于模型设计不好,或者模型本身的原因。如RNN易发生梯度爆炸,更换为LSTM可解决问题。或者模型采用了较大的学习速率,导致更新网络参数出现问题。

排查建议

最简单最方便的方法,首先调小学习速率,看看是否是由较高学习速率导致的。可以选择将学习速率降低一半, 或者降低一个数量级。在多次尝试之后,若不能解决问题,考虑其他情况。

检查运算错误,主要是有除法运算和取log的地方。判断是否有0出现,以及是否有0导致的问题,试着使用clip_by_value对数值进行限制。

最后,若还没有解决问题,再检查数据是否清洗干净。

另外,可以使用一些代码来辅助检查。在模型增加以下函数

在深度学习中,平均梯度范数为 `inf`(无穷大) `nan`(非数字)分别代表着不同的问题。 平均梯度范数为 `inf` 意味着梯度的大小变得非常大,趋向于无穷。这通常是由梯度爆炸引起的。梯度爆炸是指在反向传播过程中,梯度的值不断累积并变得极大。这种情况可能出现在使用较大的学习率时,因为学习率过大会使参数更新的步长过大,导致梯度在每次迭代中不断增大。另外,深度神经网络的结构也可能导致梯度爆炸,例如网络层数过深时,梯度在反向传播过程中不断累积放大。以下是一个简单的 PyTorch 代码示例,展示梯度爆炸可能导致平均梯度范数为 `inf` 的情况: ```python import torch import torch.nn as nn import torch.optim as optim # 简单的线性模型 class SimpleModel(nn.Module): def __init__(self): super(SimpleModel, self).__init__() self.linear = nn.Linear(1, 1) def forward(self, x): return self.linear(x) model = SimpleModel() optimizer = optim.SGD(model.parameters(), lr=100) # 使用非常大的学习率 criterion = nn.MSELoss() x = torch.randn(10, 1) y = torch.randn(10, 1) output = model(x) loss = criterion(output, y) loss.backward() total_norm = 0 for p in model.parameters(): param_norm = p.grad.data.norm(2) total_norm += param_norm.item() ** 2 total_norm = total_norm ** 0.5 print(f"平均梯度范数: {total_norm}") ``` 平均梯度范数为 `nan` 通常表示在计算梯度的过程中出现了数值不稳定的情况,例如出现了除以零或者对负数取平方根等操作。这可能是由于数据中存在异常值,比如输入数据包含 `nan` 或 `inf`,或者模型的激活函数在某些输入下会产生不稳定的输出。此外,梯度消失梯度爆炸也可能导致 `nan` 的出现,当梯度变得非常小(梯度消失)或非常大(梯度爆炸)时,可能会引发数值计算错误,最终导致梯度变为 `nan`。以下是一个可能导致梯度为 `nan` 的简单代码示例: ```python import torch import torch.nn as nn import torch.optim as optim class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.linear = nn.Linear(1, 1) def forward(self, x): return self.linear(x) model = Model() optimizer = optim.SGD(model.parameters(), lr=0.01) criterion = nn.MSELoss() # 制造一个可能导致数值不稳定的输入 x = torch.tensor([[float('inf')]]) y = torch.tensor([[1.0]]) output = model(x) loss = criterion(output, y) loss.backward() total_norm = 0 for p in model.parameters(): if p.grad is not None: param_norm = p.grad.data.norm(2) total_norm += param_norm.item() ** 2 total_norm = total_norm ** 0.5 print(f"平均梯度范数: {total_norm}") ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值