NLP深度学习 —— CS224学习笔记9

本文探讨了递归神经网络(RNN)中常见的梯度爆炸和梯度消失问题,并介绍了几种有效的解决方法,包括梯度裁剪、矩阵初始化以及激活函数的选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2.1梯度爆炸或消失

计算RNN的误差,我们计算每一步的误差并累加

每一步的误差通过微分链法则进行

在[k, t]时间区间内对于所有隐藏层的计算

每个是h的雅各宾矩阵

结合上述表达,我们得到

beta_w和beta_h代表两个矩阵范式的上限值。每个t时间戳偏分梯度的的范式

两个矩阵的范式通过L2正则来计算。

容易变得很大或很小,导致梯度爆炸或消失。

2.2解决方法

为解决梯度爆炸问题,Mikolov提出的方法简单直接,当梯度变大时进行剪切

为解决梯度消失问题,第一是矩阵初始化时进行仔细选择,而不是随机初始化。

第二是使用ReLU而不是sigmoid函数,这样微分要么0要么1,梯度在微分为1的神经元流动,反向传播时不会减弱。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值