长短期记忆网络(LSTM)及深度学习相关探讨
1. 长短期记忆网络(LSTM)基础
1.1 LSTM核心公式
LSTM 有一个关键公式用于更新细胞状态:
[c_t = f_t \odot c_{t - 1} + i_t \odot l_t]
其中,(c_t) 是当前时刻 (t) 的细胞状态,(f_t) 是遗忘门,(c_{t - 1}) 是上一时刻的细胞状态,(i_t) 是输入门,(l_t) 是候选细胞状态。
输出门用于控制细胞状态信息的输出,其计算公式如下:
[o_t = \sigma(W_{(ox)}x_{(t)} + U_{(oh)}h_{(t - 1)} + b_o)]
[h_t = o_t \odot \tanh(c_t)]
这里,(o_t) 是输出门的值,(\sigma) 是 sigmoid 函数,(W_{(ox)})、(U_{(oh)}) 是权重矩阵,(b_o) 是偏置,(h_t) 是最终输出向量。
1.2 窥视孔 LSTM(Peephole LSTM)
窥视孔 LSTM 是 LSTM 的一种变体,与标准 LSTM 不同,它使用细胞状态 (c) 而非 (h) 来调节遗忘门、输入门和输出门。其公式如下:
[i_t = \sigma(W_{(ix)}x_{(t)} + U_{(ic)}c_{t - 1} + b_i)]
[l_t = \tanh(W_{(lx)}x_{(t)} + b_l)]
[f_t = \sigma(W_{(fx)}x_{(t)} + U_{(fc)}c_{t - 1} + b_f)]
[o_t = \sigma(W
超级会员免费看
订阅专栏 解锁全文
951

被折叠的 条评论
为什么被折叠?



