LSTM(Long Short-Term Memory)是循环神经网络(RNN)的一种变体。在RNN(Recurrent Neural Network)中,网络的每个时间步都会接受一个输入和一个隐藏状态,并输出一个新的隐藏状态和一个输出。隐藏状态可以看作是网络对过去输入的记忆,它会在每个时间步被更新,并传递到下一个时间步,从而捕捉到序列中的长期依赖关系。
LSTM在RNN的基础上新增了记忆单元(memory cell)和门控机制,在记忆单元中,LSTM层的每一个时间步对于上一时刻隐藏状态的输入()会和当前输入(
)相结合先通过遗忘门来控制上一时刻状态需要被遗忘的程度,再通过输入门来控制新信息需要被更新的程度,接下来会根据上面遗忘门和输入门的输出来更新当前时刻的状态(