首先通过公式我认为GRU(“Learning Phrase Representations using RNN EncoderDecoder for Statistical Machine Translation”)里的h与LSTM里的C是非常类似的,与之相对应的是GRU里的
和LSTM里的
非常类似。区别在于控制隐藏状态更新的参数,GRU里的控制参数有两个,一个是重置门r,另一个是更新门z;而LSTM有输入门、遗忘门、输出门;在进行隐藏状态更新时,GRU更新公式如下:



GRU与LSTM的区别与联系解析
本文探讨了GRU(门控循环单元)与LSTM(长短期记忆网络)之间的区别和联系,主要集中在它们的隐藏状态更新机制上。GRU通过重置门r和更新门z控制信息传递,而LSTM则使用输入门、遗忘门和输出门。GRU的更新公式比LSTM更为简洁,其一参数控制方式与LSTM的双参数控制存在显著差异,这使得GRU在信息保留和遗忘上具有不同的灵活性。
首先通过公式我认为GRU(“Learning Phrase Representations using RNN EncoderDecoder for Statistical Machine Translation”)里的h与LSTM里的C是非常类似的,与之相对应的是GRU里的
和LSTM里的
非常类似。区别在于控制隐藏状态更新的参数,GRU里的控制参数有两个,一个是重置门r,另一个是更新门z;而LSTM有输入门、遗忘门、输出门;在进行隐藏状态更新时,GRU更新公式如下:



1144
1263