详细版【循环神经网络RNN】(邱锡鹏)

本文详细介绍了循环神经网络RNN的原理和应用,包括延时神经网络、自回归模型NARX、RNN的结构及通用近似定理。重点讲解了LSTM和GRU的门控机制,解决长程依赖问题。还探讨了RNN的深度学习实践,如堆叠RNN和双向RNN,并提及扩展到图结构的递归神经网络和图神经网络。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

循环神经网络RNN

详细代码实现见同专栏下博文

  • 给网络增加短期记忆能力的方法

    • 延时神经网络:
      • 在前馈网络中的每个非输出层都添加一个延时器,记录神经元的最近几次活性值
      • 在第 t 个时刻,第 𝑙 层神经元的活性值依赖于第 𝑙 − 1 层神经元的最近𝐾 个时刻的活性值,即 𝒉𝑡(𝑙) = 𝑓(𝒉𝑡(𝑙−1) ,𝒉𝑡-1(𝑙−1) , ⋯ , 𝒉𝑡−𝐾(𝑙−1)),其中𝒉𝑡(𝑙) ∈ ℝ𝑀𝑙 表示第 𝑙 层神经元在时刻 𝑡 的活性值。
    • 有外部输入的非线性自回归模型NARX
      • 自回归模型AR:用一个变量 𝒚𝑡 的历史信息来预测自己. 𝒚𝑡 = 𝑤0 + ∑ 𝑤𝑘𝒚𝑡−𝑘 + 𝜖𝑡 ,其中𝐾为超参数,𝑤0 , ⋯ , 𝑤𝐾 为可学习参数,𝜖𝑡 ∼ 𝒩(0, 𝜎2 )为第𝑡 个时刻的噪声, 方差和时间无关。
      • NARX是自回归模型的扩展:在每个时刻 𝑡 都有一个外部输入𝒙𝑡,产生一个输出𝒚𝑡,NARX通过一个延时器记录最近𝐾𝑥次的外部输入和最近𝐾𝑦次的输出,第 t 个时刻的输出 𝒚𝑡𝒚𝑡 = 𝑓(𝒙𝑡 , 𝒙𝑡−1, ⋯ , 𝒙𝑡−𝐾𝑥 , 𝒚𝑡−1, 𝒚𝑡−2, ⋯ , 𝒚𝑡−𝐾𝑦 ),其中𝑓(⋅)表示非线性函数,可以是一个前馈网络,𝐾𝑥 和𝐾&#x
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值