基于TensorFlow和Keras的循环神经网络(RNN)实战
1. GRU网络介绍
LSTM网络计算成本较高,因此研究人员找到了一种几乎同样有效的RNN配置,即门控循环单元(Gated Recurrent Unit,GRU)架构。在GRU中,不区分工作记忆和长期记忆,仅使用一种由h(隐藏状态)表示的记忆。GRU单元通过重置门和更新门向该状态记忆添加信息或从中移除信息。
1.1 GRU单元内部流程
- 更新门u( ) :输入按照特定方程流入u( )门。
- 重置门r( ) :输入按照特定方程流入r( )门。
- 候选状态记忆 :根据r( )门的输出、输入等,按照特定方程计算候选长期记忆。
- 更新状态记忆 :结合上述三个计算,按照特定方程得到更新后的状态记忆。
若想了解GRU的更多细节,可阅读以下研究论文:
- K. Cho等人的“Learning Phrase Representations using RNN Encoder - Decoder for Statistical Machine Translation” (2014),链接:https://arxiv.org/abs/1406.1078
- J. Chung等人的“Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling” (2014),链接
超级会员免费看
订阅专栏 解锁全文
639

被折叠的 条评论
为什么被折叠?



