RNN有一定的记忆能力,但是只能保留短期记忆,在各类任务上表现并不好。
人类的记忆是有取舍的,我们不会记住每时每刻发生的所有事,会有选择的留下重要的,丢掉不重要的,参考这种记忆机制,人们改造了小盒子,并找到门这种记忆机制,门是用来决定信息如何保留的小开关,它的数值在0~1之间,1是完全保留,0是完全舍弃。
新的小盒子上有三个门,其中遗忘门决定了小盒子里要保留多少原有信息,也就是丢掉哪些不重要的记忆;输入门决定了当前网络信息有多少要被保存在小盒子里,也就是记住哪些新东西;输出门决定了多大程度的输出小盒子中的信息。经过改造的小盒子,既能通过输入门对当前网络状态有所了解,又能利用遗忘门留下过往的重要信息,这就是LSTM。
通过改变小盒子的结构,LSTM还有很多变体,如MGU、SRU。最受欢迎的还是门控循环单元GRU
GRU只有两个门,更新门是遗忘门和输入门的结合体,决定丢弃哪些旧信息,添加哪些新信息;重置门决定写入多少上一时刻网络的状态,用来捕捉短期记忆,结构更简洁,计算更高效,效果又与LSTM不相上下,GRU变得越来越流行。
LSTM长短时记忆模型
最新推荐文章于 2024-11-28 11:50:17 发布