20、自然语言处理中的循环神经网络与序列到序列模型

自然语言处理中的循环神经网络与序列到序列模型

1. RNN的反向传播与梯度问题

在RNN的反向传播阶段,单元状态 ( c_t ) 可以在遗忘门 ( f_t ) 的帮助下缓解梯度消失/爆炸问题。通过链式法则,我们可以计算两个连续步骤的偏导数 ( \frac{\partial c_t}{\partial c_{t - 1}} ),其近似为 ( f_t )。对于非连续步骤,有 ( \frac{\partial c_t}{\partial c_{t - k}} \approx \prod_{j = 1}^{k} f_{t - j + 1} )。如果遗忘门的值接近1,梯度信息可以几乎不变地通过网络状态。不过,由于 ( f_t ) 使用sigmoid激活函数,信息流仍然会受到sigmoid激活函数特有的梯度消失问题影响,但与常规RNN的梯度不同, ( f_t ) 在每个时间步都有不同的值,因此梯度消失效应不太明显。

2. 门控循环单元(GRU)

GRU是2014年提出的一种循环块,作为对LSTM的改进。它通常具有与LSTM相似或更好的性能,但参数和操作更少。GRU单元有一个单一的隐藏状态 ( h_t ),可看作是LSTM隐藏状态和单元状态的组合。GRU单元有两个门:
- 更新门 ( z_t ) :结合了LSTM的输入门和遗忘门,根据网络输入 ( x_t ) 和前一个隐藏状态 ( h_{t - 1} ) 决定丢弃哪些信息以及包含哪些新信息。公式为 ( z_t = \sigma(W_z x_t + U_z h_{t - 1}) )。
- 重置门 ( r_t ) :使用前一个隐藏状态 ( h_{t

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值