【深度学习笔记】LSTM

本文详细介绍了LSTM的门控单元结构,包括遗忘门、输入门、候选记忆和输出门的作用。LSTM通过记忆细胞和门控机制有效地处理时间序列数据,特别是解决了RNN中的梯度消失问题。虽然对于长序列,Transformer可能更适合,但LSTM仍然是关键的序列模型。
部署运行你感兴趣的模型镜像

1. 简介

Long Short-Term Memory)LSTM是一种长短期记忆网络,是一种特殊的RNN , LSTM更加适用于处理和预测时间序列中间隔较长的重要事件,并在一定程度上缓解了梯度消失

2. 门控单元

一个LSTM块中有3个门控单元,分别是输出门,输入门,遗忘门


那么门控记忆单元又是什么呢?
在LSTM中引入了记忆细胞(memory cell,记忆单元也行),用于存储网络中的一些信息,门控单元就相当于我们平常生活中的门,决定了数据合适进来?以什么方式进来?需不需要遗忘某一部分的数据?

下面我们就来解释上面提到的各个门

2.1 遗忘门

在这里插入图片描述上图所圈的部分即是遗忘门的逻辑,对应的公式如下Ft=σ(XtWxf+Ht−1Whf+bf)\mathbf{F}_t = \sigma(\mathbf{X}_t \mathbf{W}_{xf} + \mathbf{H}_{t-1} \mathbf{W}_{hf} + \mathbf{b}_f)Ft=σ(XtWxf+Ht1Whf+bf)即是合并了当前输入和前一时刻的隐状态通过 相乘权重加上偏置,最终通过sigmoid激活函数输出结果,通过此门可以计算出一个0~1之前的遗忘值,用于后面决定前序记忆的遗忘程度

2.2 输入门

在这里插入图片描述
从上图中我们可以看到,输入门部分包含两种逻辑,决定了我当前时刻需要学多少新的知识。公式如下It=σ(XtWxi+Ht−1Whi+bi)\mathbf{I}_t = \sigma(\mathbf{X}_t \mathbf{W}_{xi} + \mathbf{H}_{t-1} \mathbf{W}_{hi} + \mathbf{b}_i)It=σ(XtWxi+Ht1Whi+bi)跟前面类似,只是权重矩阵替换成对应的,值得注意的是这些权重矩阵可以通过网络自己学习出来,所以我们只需要给他们统一初始化,像是一个三元组(W隐藏层,W输入层,bW_{隐藏层}, W_{输入层}, bW隐藏层,W输入层,b)生成4次…

2.2.1 候选记忆

既然我们有一个输入门输入我们当前新学的数据了,为什么还需要一个候选记忆呢,感觉完全没有存在的必要?🙃
事实上不是这样的,大家不要被其误导,候选记忆的本质就是学习的新东西,而输入门才是我们用于约束我们需要多少的候选记忆加入当前的网络,上图中可以看到通过 ⊙ ~\odot~  运算后生成的东东是直接加到记忆细胞中的,不是乘法!!


此时激活函数用的是tanh,同上替换相应的权重矩阵其公式如下C~t=tanh(XtWxc+Ht−1Whc+bc)\tilde{\mathbf{C}}_t = \text{tanh}(\mathbf{X}_t \mathbf{W}_{xc} + \mathbf{H}_{t-1} \mathbf{W}_{hc} + \mathbf{b}_c)C~t=tanh(XtWxc+Ht1Whc+bc)

2.3 输出门

在这里插入图片描述终于到最后一个门啦,输出门主要作用在当前时刻的隐状态输出上。公式如下Ot=σ(XtWxo+Ht−1Who+bo)\mathbf{O}_t = \sigma(\mathbf{X}_t \mathbf{W}_{xo} + \mathbf{H}_{t-1} \mathbf{W}_{ho} + \mathbf{b}_o)Ot=σ(XtWxo+Ht1Who+bo)这个公式就不解释了,跟前面一样的。观察上面的图我们可以看到 Ht ~H_t~ Ht t时刻的隐状态由上一时刻的记忆单元 Ct−1 ~C_{t-1}~ Ct1 ,上一时刻的隐状态 Ht−1 ~H_{t-1}~ Ht1 ,当前时刻的输入 Xi ~X_i~ Xi 三者共同决定,在讲如何计算前,我们还要多提一嘴最上面那条线代表的记忆单元如何计算

2.3.1 t时刻记忆单元 Ct\mathbf C_tCt

根据图片我们可以得出 t 时刻的记忆单元计算公式如下Ct=Ct−1⊙ Ft + It⊙ Ct~\mathbf C_t = \mathbf C_{t-1} \odot~\mathbf F_t ~+~\mathbf I_t \odot ~\tilde{\mathbf C_t} Ct=Ct1 Ft + It Ct~即是遗忘门决定遗忘多少前时刻的记忆;输入门决定学习多少刚学习的记忆。两者之和作为当前时刻新的记忆

我们可以通过上面的式子理解一下为什么LSTM会减缓梯度消失,梯度消失本质就是在反向传播的过程中权重矩阵的连乘,而这里引入记忆细胞可以很好的减轻这里情况:

如果遗忘门为1,而输入门为0,此时上一个时刻的记忆就会原封不动的保存到下一个时刻,
那么此时为我们就可以省去反复计算的时间🤔 ctc_tctct−1c_{t-1}ct1的导数跟三个门的权重有关,而这些权重又是可以自学习的,所以可以有效控制住梯度的大小,不会太大或者太小
自己的拙见,有不同理解的可以评论区call我

上面出现的 ⊙ ~\odot~  代表数学中的同或运算两个操作数值相同时同或结果为真,反之为假,公式表示如下a ⊙ b=a∗b+a′∗b′            其中a′为非a,b′为非ba ~\odot~b = a*b + a'*b' ~~~~~~~~~~~~其中a'为非a,b'为非ba  b=ab+ab            其中a为非ab为非b

2.4 t时刻的隐状态  Ht~~\mathbf H_t  Ht

Ht=tanh(Ct) ⊙ Ot\mathbf H_t = tanh(\mathbf C_t) ~\odot~\mathbf O_tHt=tanh(Ct)  Ot
由于有了输出门控单元Ot\mathbf O_tOt,所以这就确保了任意时刻 Ht\mathbf H_tHt 的值始终在区间 (−1,1)内。
而sigmoid函数是在(0,1)之间的

  • 只要输出门接近 1,我们就能够有效地将所有记忆信息传递给预测部分
  • 对于输出门接近 0,我们只保留记忆元内的所有信息,而不需要更新隐状态。

3.总结

LSTM对于处理更长的时序会更加好(对比RNN),并在一定程度上缓解了梯度消失,并且除了计算时间负责一点基本没有啥缺点。最后说下一个LSTM块中包含

  • 记忆细胞 负责保存重要信息

  • 遗忘门 决定要不要遗忘记忆细胞中的信息

  • 输入门 决定要不要将当前输入信息写入记忆细胞

  • 候选记忆 学习得到的当前时刻新记忆

  • 输出门 决定要不要将记忆细胞的信息作为当前的隐变量输出

当然对于更长的时序还是用transformer模型来做更好

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值