LSTM与BiLSTM-传统rnn升级模型

LSTM(Long Short-Term Memory)是一种特殊的RNN(Recurrent Neural Network)结构,它能够有效地学习长期依赖关系。LSTM的内部原理包括三个门控机制:遗忘门、输入门和输出门,以及一个细胞状态(cell state)来存储信息。

遗忘门

遗忘门负责决定前一时间步的细胞状态中有多少信息应该被遗忘。这个过程通过一个Sigmoid层来完成,它将输入数据与前一时间步的隐藏状态(h_t-1)作为输入,并输出一个介于0和1之间的值。这个值代表了前一时间步的细胞状态中有多少信息应该被遗忘。

输入门

输入门负责决定前一时间步的细胞状态中应该添加哪些新信息。这个过程也通过一个Sigmoid层和一个tanh层来完成。Sigmoid层将输入数据与前一时间步的隐藏状态作为输入,并输出一个介于0和1之间的值,这个值代表了应该将多少新信息添加到细胞状态中。tanh层则将输入数据与前一时间步的隐藏状态作为输入,并输出一个介于-1和1之间的值,这个值代表了新信息的候选值。

细胞状态

细胞状态是LSTM的核心,它负责存储信息。在每个时间步,遗忘门和输入门决定了哪些信息应该被遗忘和添加到细胞状态中。遗忘门和输入门的输出分别与细胞状态和tanh层的输出相乘,然后将两个结果相加,得到新的细胞状态。

输出门

输出门负责决定当前时间步的隐藏状态中有多少信息应该被输出。这个过程通过一个Sigmoid层来完成,它将输入数据与当前时间步的隐藏状态(h_t)作为输入,并输出一个介于0和1之间的值。这个值代表了当前时间步的隐藏状态中有多少信息应该被输出。

隐藏状态

隐藏状态是LSTM的输出,它包含了当前时间步的信息。输出门的输出与tanh层的输出相乘,然后将两个结果相加,得到当前时间步的隐藏状态。

推理过程

在推理过程中,LSTM不需要反向传播,只需要按照时间步顺序逐个处理序列中的每个元素。在每个时间步,LSTM会根据当前的输入数据和前一时间步的隐藏状态,通过遗忘门、输入门和输出门来更新细胞状态和隐藏状态。
总结一下,LSTM通过遗忘门、输入门和输出门这三个门控机制,以及

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ai玩家hly

年少且带锋芒,擅行侠仗义之事

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值