矩阵层之间的梯度对应的n*n矩阵又被称为雅克比矩阵。
当雅可比矩阵的最大特征值大于1时,随着离输出越来越远,每层的梯度大小呈指数增长,导致梯度爆炸;反之当最大特征值小于1时,梯度大小会指数减小,即梯度消失。梯度消失意味着无法通过增加网络层次来提升预测效果,只有靠近输出的那几层才起到真正学习的作用,因此RNN很难学习到输入序列的长距离依赖。
梯度爆炸可以用梯度裁剪来缓解,当大于某个阈值的时候,对梯度进行等比缩放。而梯度消失需要通过对模型进行调整,前馈神经网络可以通过残差网络来解决,而RNN只能 通过改变门控,比如LSTM及其变种
博客介绍了矩阵层间梯度对应的雅克比矩阵,当最大特征值大于1会导致梯度爆炸,小于1则会梯度消失。梯度消失使RNN难学习长距离依赖,梯度爆炸可用梯度裁剪缓解,梯度消失前馈网络用残差网络解决,RNN则通过改变门控如LSTM处理。
1388

被折叠的 条评论
为什么被折叠?



