LSTM

探讨了RNN在处理长期依赖问题上的局限性,介绍了LSTM如何通过门控机制改善这一状况,使得网络能够记住更长时间的逻辑关系,并提高了训练效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

解决RNN中存在的问题:记忆的时长有问题,神经网络忘记了之前的信息,只能记忆时间非常短的一段信息,多较长时间的逻辑关系记忆不是很好;RNN不好训练

LSTM会忘记不重要的信息,而会记住长时间以前比较重要的逻辑关系;且训练更好

LSTM

让cell中的计算很复杂,包含四层 et gate layer,判断对整个序列是否有帮助;input gate layer;current state,output layer

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值