Long Short Term Memory(LSTM)

LSTM(长短期记忆网络)通过引入门控机制解决了RNN的梯度消失问题。它包含遗忘门、输入门和输出门,允许网络选择性地保留或丢弃信息。遗忘门控制前一时刻的状态信息,输入门决定当前时刻新信息的存储,输出门则决定最终输出哪些记忆信息。这种设计使得LSTM能够有效地捕捉长期和短期依赖,缓解了梯度消失,提高了对长时间序列信息处理的能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LSTM 的提出就是为了解决RNN的梯度消失/爆炸以至于引起对时间久远的信息不敏感的问题(久远的信息对当前时刻的更新不做贡献)

1.LSTM 结构

        总的来说就是多了几个控制的门,每次新的信息进来还有每次拿旧的信息我都不是全部拿,而是有选择性地拿,至于怎么选择性地拿,就交给网络自己学习了

        直接上图: 

        在RNN的基础上,除了隐层状态外,我们引入了新的状态C_t,用来决定我要保留之前的多少信息。最最关键就是这个了C了,暂且称为Cell吧

        首先先看这个C,这个C就是代表我们在当前这个时刻,要记住的东西,分别有两部分,第一部分是前一时刻保留了多少信息,第二部分保留当前时刻新进来的信息。这个东西就是LSTM和RNN做出区别的存在了,他可以让网络选择记住很久很久以前的信息,从而弥补RNN的缺点。

 

        第一部分我们通过遗忘门去控制,就是上图的红色圈,这个圈的具体公式是,激活函数是sigmod,出来的值是0-1: 

f_t = \sigma(W_f*[h_{t-1}, x_t] + b_f)

        用人话来说就是我这个W_f决定着我们还需不需要记住前面状态的信息,即当前时刻的记忆状态有多少是来自于前面的记忆。

        第二部分公式: 引用一下强哥的图:

        先看上面遗忘门右边的,也就是这个红色框,我们管它叫更新门

这里包含两个部分。第一,sigmoid 层称 “输入门层” 决定什么值我们将要更新。然后,一个 tanh 层创建一个新的候选值向量:\hat{C_t},会被加入到状态中。总的来说:这个门就是控制当前时刻的记忆有多少会来自于当前时刻的输入本身, 

         至此,我们当前时刻的cell状态了:

C_t = f_t*C_{t-1} + i_t*\hat{C_t}

        理解这个C最最最主要的还是:代表我们在当前这个时刻,要记住的东西,分别有两部分,第一部分是前一时刻保留了多少信息(通过遗忘门去控制忘记了多少),第二部分保留当前时刻新进来的信息(通过更新门实现) 

        最后 我们来看一下当前时刻的输出是怎么玩的!上图:

        这个 O_t就是output了,同理,他可以通过矩阵W_o去选择要多少当前的输入信息以及多少旧时刻的信息,我们管这个叫输出们。

        接着,我们把细胞状态通过 tanh 进行处理(得到一个在 -1 到 1之间的值)并将它和输出门的输出相乘,最终我们仅仅会输出我们确定输出的那部分:h_t

        最最后,再接一层softmax,就是真正的输出了。

2. Summary 

        LSTM在记忆这方面非常的灵活,就是既可以长期记忆也可以短期记忆,它在RNN的基础上增加了自由的选择记忆功能, 也就是会有一个记忆cell, 这里面会只存储和当前时刻相关的一些重要信息, 毕竟每个时刻关注的上下文点可能不一样, 这个交给网络自己选择, 光有cell也不能起到好作用, 还得有两个门协助它完成选择和过滤的功能, 所以遗忘门帮助它衡量需要记住多少前面时刻的状态信息, 更新门帮助它衡量需要记住当前时刻的多少状态信息, 这俩一组合就是比较理想的记忆了。 但是即使是这样, LSTM依然不放心把这个记忆作为输出, 又加入了一个输出门, 来自由的选择我用多少记忆的信息作为最后的输出, 所以LSTM有了这三个门, 有了记忆cell, 使它变得更加的灵活, 既可以捕捉短期依赖, 也可以捕捉长期依赖, 并且也缓解了梯度消失。总结在这里引用

 

3. LSTM是怎么解决 梯度消失/爆炸的问题

        我们应该还记得为什么RNN有这个问题,就是因为那个连乘公式:\prod\frac{\partial S_j}{\partial S_{j-1}}, 就是一个tanh'W的结果,当里面某一层的这个值,也就意味着这一层对当前反向传播是没有做出贡献的,反而是近距离的做出巨大的贡献,所以RNN无法捕捉长期依赖。

        我们现在来看看LSTM怎么解决,上面提到了,输出其实是关于C_t的函数,所以最后演变成\prod \frac{\partial C_j}{\partial C_{j-1}}这个会影响结果是否会有梯度消失/梯度爆炸。

        我们先把所有公式列出来,看看C_t怎么来的:

         然后把\prod \frac{\partial C_j}{\partial C_{j-1}}根据链式求导法则列出来:

\frac{\partial C_t}{\partial C_{t-1}} = \frac{\partial C_t}{\partial f_t}\frac{\partial f_t}{\partial h_{t-1}}\frac{\partial h_{t-1}}{\partial C_{t-1}} + \frac{\partial C_t}{\partial i_t}\frac{\partial i_t}{\partial h_{t-1}}\frac{\partial h_{t-1}}{\partial C_{t-1}}+ \frac{\partial C_t}{\partial \hat C_t}\frac{\partial \hat{C_t}}{\partial h_{t-1}}\frac{\partial h_{t-1}}{\partial C_{t-1}} + \frac{\partial C_t}{\partial C_{t-1}}

        这里我们可以发现他不像RNN那样简单,那么枯燥,RNN就保留一个tanhW,所以每一次RNN都是 [-1,1]。但是我们这个lSTM可以是任意数啊,而且有很多个门去决定,这样的网络通过调节对应门的值来决定何时让梯度消失, 何时保留梯度, 这就是LSTM超级牛的地方。

 

 

 

 

 

        

### 回答1: 长短期记忆网络(Long Short Term Memory Networks,LSTM)是一种用于处理序列数据的深度学习模型,用于解决传统循环神经网络(RNN)中的梯度消失问题。 Python是一种通用的编程语言,可以使用Python编写LSTM模型。在Python中,可以使用多个深度学习框架(如TensorFlow、Keras、PyTorch等)中的库来实现LSTM网络。 要实现LSTM模型,首先需要导入相应的深度学习库。然后,通过定义模型的参数、数据预处理、定义LSTM层、编译模型、训练模型和评估模型等步骤来构建LSTM网络。在编写代码时,可以使用Python的强大的科学计算库来处理数据和进行数学计算。 在使用Python实现LSTM时,可以根据具体的需求进行调整和优化模型的结构和参数。可以通过调整LSTM层的单元数、增加隐藏层、引入正则化和优化算法来提高模型性能。此外,还可以使用交叉验证和调参技术来选择最佳的超参数。 Python作为一种简洁易用的编程语言,提供了丰富的工具和库来支持LSTM模型的实现和应用。通过使用Python,我们可以轻松地构建和使用LSTM网络,从而应用于各种序列数据相关的任务,如语音识别、自然语言处理、时间序列预测等。 ### 回答2: 长短期记忆网络(Long Short Term Memory Networks,简称LSTM)是一种特殊的循环神经网络(Recurrent Neural Networks,简称RNN),用于处理和预测序列数据。 在Python中,我们可以使用一些开源的深度学习框架,如TensorFlow或PyTorch,来构建和训练LSTM网络。这些框架提供了一系列函数和类,可以轻松地构建、训练和测试LSTM模型。 首先,我们需要导入相应的库和模块。例如,在TensorFlow中,我们可以使用`import tensorflow as tf`来导入TensorFlow库。 接下来,我们可以定义LSTM模型的结构。LSTM网络由多个LSTM单元组成,每个单元有一个隐藏状态和一个记忆单元。我们可以使用框架提供的API来定义一个LSTM层,并设置相应的参数,如隐藏单元的数量和输入序列的长度。 然后,我们可以定义模型的其余部分,如输入层、输出层和损失函数。根据具体任务的要求,我们可以选择不同的网络结构和损失函数来满足需求。 接下来,我们可以进行模型的训练。我们需要提供训练数据和标签,并选择适当的优化算法来更新模型的参数。通过迭代训练过程,我们可以逐渐改善模型的性能。 最后,我们可以使用训练好的模型对新的数据进行预测。我们可以加载保存的模型,并使用它来预测新的序列数据。 总之,使用Python可以方便地构建和训练LSTM网络。通过选择适当的开源深度学习框架和实现合适的网络结构,我们可以有效地在序列数据任务中应用LSTM网络。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值