RNN学习(二)——LSTM

本文探讨了长短期记忆网络(LSTM)如何解决循环神经网络(RNN)的局限性。LSTM通过控制参数C,决定信息的保留与遗忘,有效避免了长期依赖问题。文章详细解析了LSTM的工作原理,包括遗忘门、输入门和输出门的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了解决RNN的一些缺点,RNN与LSTM对比。
在这里插入图片描述
LSTM具体实现思路如下:
(1)C:控制参数
决定什么样的信息会被保留什么样的会被遗忘

在这里插入图片描述
在这里插入图片描述

丢弃的信息:

先把当前节点的输入和之前记忆的输入传递进来,然后通过sigmod函数组合起来后得到的函数值(0,1)之间,然后再跟Ct-1组合,决定丢弃什么信息。Ct是永远更新维护的值。
(2)保留的信息
在这里插入图片描述
(3)更新控制参数在这里插入图片描述
根据旧的控制参数Ct-1和新生成的更新控制参数C~t,共同决定此时此刻细胞的控制参数Ct。
遗忘的信息Cti-1和保留Ct的信息。先走遗忘的信息,再走保留的信息。Ct从开始到最后一直更新。
(4)LSTM的输出
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值