长短期记忆网络(LSTM):原理、应用与异常检测实践
1. RNN与LSTM基础
在处理序列数据时,循环神经网络(RNN)是一种常用的神经网络类型。RNN在处理输入序列时会返回其内部状态,该状态作为下一阶段解码器的输入。解码器经过训练,根据目标序列的先前点来预测目标序列的下一个点,具体来说,是将目标序列转换为相同但在未来偏移一个时间步长的序列。
在训练RNN时,和其他神经网络一样使用反向传播算法,但RNN存在时间维度。在反向传播中,我们计算损失函数相对于每个参数的导数(梯度),然后根据这些信息将参数向相反方向移动,以最小化损失。由于我们在时间维度上移动,每个时间步都有一个损失,我们可以对这些损失进行求和。
然而,传统RNN存在一个问题,即梯度消失问题。当我们试图对相隔大量其他值的序列值之间的依赖关系进行建模时,时间步T的梯度依赖于T - 1的梯度,而T - 1的梯度又依赖于T - 2的梯度,以此类推。随着时间步的推移,梯度链变得越来越长,最早的梯度贡献变得越来越小,这意味着早期层的梯度会变得越来越小,网络无法学习长期依赖关系,RNN会产生偏差,只能处理短期数据点。
LSTM网络是一种特殊的循环神经网络,它在RNN的基础上增加了一个记忆组件,旨在帮助将时间T学到的信息传播到未来的T + 1、T + 2等时间步。LSTM的主要思想是能够忘记先前状态中不相关的部分,选择性地更新状态,然后输出与未来相关的部分状态。通过丢弃部分状态、更新部分状态并传播部分状态,LSTM避免了RNN中长的反向传播链,因此比典型的RNN更高效。
2. LSTM的结构与工作原理
一个常见的LSTM单元由一个细胞、一个输入门、一个输出门和一个遗忘门组
超级会员免费看
订阅专栏 解锁全文
8

被折叠的 条评论
为什么被折叠?



