GRU学习记录-2016/12/01

  GRU(Gated Recurrent Unit)是LSTMs网络的一种变式,主要的目的也是解决RNNs网络长时记忆的问题,通过hidden state来记忆上下文关系。GRU基本repeating module如下图所示:


GRU网络单元


  图中ht为t时刻的hidden state,也为t时刻单元的输出;xt为t时刻的输出;rt为reset gate(重置,决定生成新的candidate hidden state—即带上波浪的ht—时是否包含之前状态的影响,取值为1,0);zt为update gate(更新,决定是否用candidate hidden state更新当前状态);带上波浪线的ht为由ht-1和xt新生成的当前状态的备选;ht为最终保留并输出的当前状态,由zt在带上波浪线的ht与ht-1之间选择。

  与标准LSTMs网络不同的是,在生成新的记忆状态时,GRU合并了LSTMs中的forget gate和input gate,以update gate(Zt)来代替;并且将LSTMs中的cell state和hidden state整合为一个hidden state,这样做简化了整个网络单元的结构,并且在实验上也取得了比较不错的结果。

内容整理自:Understanding LSTM Networks

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值