深度学习(五) 循环神经网络基础
5.1 RNN
RNN对于时序数据进行建模,上一刻的输出回作为下一时刻的输入。
更新方程:
ht=tan(Wh(t−1)+Ux(t))0t=c+Vh(t)(5.1.1)ht=tan(Wh(t−1)+Ux(t))(5.1.1)0t=c+Vh(t)
RNN存在的问题:
BP through time 反向传播的时候WW计算了很多次,会导致梯度消失或者爆炸最大的特征值 > 1梯度爆炸 <1 梯度消失 为矩阵高次幂导致的
5.2 LSTM
特点:
增加遗忘机制。例如当一个场景结束是,模型应该重置场景的相关信息,例如位置、时间等。而一个角色死亡,模型也应该记住这一点。所以,我们希望模型学会一个独立的忘记/记忆机制,当有新的输入时,模型应该知道哪些信息应该丢掉。
增加保存机制。当模型看到一副新图的时候,需要学会其中是否有值得使用和保存的信息
所以当有一个新的输入时,模型首先忘掉哪些用不上的长期记忆信息,然后学习新输入有什么值得使用的信息,然后存入长期记忆中
把长期记忆聚焦到工作记忆中。最后,模型需要学会长期记忆的哪些部分立即能派上用场。不要一直使用完整的长期记忆,而要知道哪些部分是重点。
更新公式:
it=σ(Wiht−1+Uixt+bi)ot=σ(Woht−1+Uoxt+bo)ft=σ(Wfht−1+Ufxt+bf)pt=tanh(Wpht−1+Upxt+bp)ct=ft⊙ct−1+it⊙ptht=ot⊙tanh(ct)(5.1.2)it=σ(Wiht−1+Uixt+bi)ot=σ(Woht−1+Uoxt+bo)ft=σ(Wfht−1+Ufxt+bf)pt=tanh(Wpht−1+Upxt+bp)ct=ft⊙ct−1+it⊙pt(5.1.2)ht=ot⊙tanh(ct)
LSTM用加和的方式取代了乘积,解决梯度消失问题
5.3 GRU
忘记门和输入门合成了一个单一的 更新门,减少参数
更新公式:
zt=σ(Wzht−1+Uzxt+bz)rt=σ(Wrht−1+Urxt+br)pt=tanh(Wp(rt⊙ht−1)+Upxt+bp)ht=(1−zt)⊙ht−1+zt⊙pt(5.1.3)zt=σ(Wzht−1+Uzxt+bz)rt=σ(Wrht−1+Urxt+br)pt=tanh(Wp(rt⊙ht−1)+Upxt+bp)(5.1.3)ht=(1−zt)⊙ht−1+zt⊙pt
本文深入探讨了循环神经网络(RNN)的基本原理及其两种改进模型——长短期记忆网络(LSTM)和门控循环单元(GRU)。针对RNN处理时序数据时存在的梯度消失和梯度爆炸问题,LSTM通过引入遗忘门、输入门和输出门机制增强了模型的记忆能力;GRU则通过简化LSTM结构,将遗忘门和输入门合并为更新门,减少了参数数量。
8万+

被折叠的 条评论
为什么被折叠?



