LSTM变种模型

GRU

GRU简介

门控循环神经网络 (Gated Recurrent Neural NetworkGRNN) 的提出,旨在更好地捕捉时间序列中时间步距离较大的依赖关系。它通过可学习的门来控制信息的流动。其中,门控循环单元 (Gated Recurrent Unit GRU) 是一种常用的 GRNN GRU LSTM 做了很多简化,同时却保持着和 LSTM 相同的效果。

GRU的原理

GRU 的两个重大改进

  • 将三个门:输入门、遗忘门、输出门变为两个门:更新门 (Update Gate) 和 重置门 (Reset Gate)
  • (候选) 单元状态隐藏状态 (输出) 合并,即只有 当前时刻候选隐藏状态 当前时刻隐藏状

模型结构

简化图

内部结构图

  •  x_{t}:当前时刻输入信息
  • h_{t-1}:上一时刻的隐藏状态。隐藏状态充当了神经网络记忆,它包含了之前节点所见过的数据的信息
  • h_{t}:传递下一时刻的隐藏状态
  • \tilde{h}_{t}:候选隐藏状态
  • r_{t}:重置门
  • z_{t}:更新门
  • \sigma:sigmoid函数,通过这个函数可以将数据变为0-1范围内的数值
  • tanh:tanh函数,通过这个函数可以将数据变为[-1,1]范围内的数值
  • W_{z}W_{r}和w是W是模型参数(权重矩阵),需要通过训练数据来学习
  • GRU通过其他门控制机制能够有效的捕捉到序列数据中的时间动态,同时相较于LSTM来说,由于起结构更加简洁,通常参数更少,计算效率更高
重置门

重置门决定在计算当前候选隐藏状态时,忽略多少过去的信息

更新门

更新门决定了多少过去的信息将被保留,它使用前一时间步的隐藏状态(h_{t-1})和当前输入(x_{t})来计算得出

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值