LSTM——长短期记忆网络

本文介绍了LSTM网络中关键组件——输入门、忘记门和输出门的作用,以及它们如何控制遗忘过去数据和当前输入。与GRU相比,LSTM提供了更大的灵活性。并通过Pytorch的torch.nn.LSTM函数进行实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

概念

It(输入门):决定是不是忽略输入数据

Ft(忘记门):决定是否忘记以前的状态

Ot(输出门):决定是否使用当前计算出来的隐状态

候选记忆单元:相当于获得当前输入

记忆单元(相当于个“日记本”):这里可通过It来决定是否忽略当前输入数据

计算公式:

与GRU相比,LSTM网络结构把对过去数据的遗忘程度和对当下输入数据的遗忘程度拆分成两个独立的变量,通过Ft来控制对过去数据的遗忘程度,通过It来控制对当下输入数据的遗忘程度,使得网络更加灵活 

Pytorch简介实现

参考资料:

torch.nn.LSTM()详解 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值