LSTM(Long Short-Term Memory)和LSTM例子理解

本文介绍了LSTM(长短期记忆网络)的基本概念及其在解决传统RNN长期依赖问题上的优势。通过加入GET()和FORGET()等函数,LSTM能够有效避免梯度消失或爆炸现象,从而在语言翻译、机器人控制等多个领域展现出强大的能力。

What is LSTM

LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
LSTM 已经在科技领域有了多种应用。基于 LSTM 的系统可以学习翻译语言、控制机器人、图像分析、文档摘要、语音识别图像识别、手写识别、控制聊天机器人、预测疾病、点击率和股票、合成音乐等等任务。

LSTM

这里写图片描述

LSTM是为了解决RNN在长期依赖方面的问题,以解决随着梯度下降产生的梯度消失(返回的数值在经过每一层神经网络的时候,乘以一个小于一的权重值,在一定次数之后,返回的数值消失【返回的数值接近于0】),或者是梯度爆炸(返回的数值在经过每一层神经网络的时候,乘以一个大于一的权重值,在一定次数之后,返回的数值爆炸【返回的数值接近于无穷大】)
LSTM实在传统的RNN的每一层的输入层,神经网络层,输出层上加入一个处理函数:
1.在输入层之后添加一个GET()函数用于判断是否要在只有的神经网络的Train中使用当前时刻的输入信息。
2.在神经网络层上添加一个FORGET()函数用于判断是否需要之前时刻神经网络Train产生的结果,来作为当前时刻的神经网络Train的输入信息。或者将其暂时忘记。
3.在输出层之后添加一个GET()函数用于判断是否要读取当前M中产生的信息。
由于加入了以上三个函数,LSTM能够较好的完成RNN在长期依赖方面的问题。获取更好的Train结果。

LSTM例子——论如何快速通关仙剑奇侠传一

正如我们所知道的经典单机游戏仙剑奇侠传一是一个主线剧情+支线剧情的单机扮演类游戏,我们可以通过不断的与剧情任务(主线剧情或支线剧情)的互动来推动游戏向前发展。

对比于LSTM,RNN就是一般玩家。我们可以这样理解整个从一般的RNN推进的顺序可以看做是仙剑的主线剧情(标准结局,Stand End or Sad End),毫无疑问,如果我们只是和RNN一样玩了个Stand End,是难以让我们满足的。

所以,LSTM就登场啦。在骨灰级玩家LSTM的操作之下,我们学会了开发支线剧情,存档操作等等一系列的操作,就使得我们有了更好的(月如版隐藏结局与灵儿版隐藏结局,Happy End)。
在这里的LSTM开发支线剧情,存档操作等等一系列的操作就是我们上面所讲述输入层GET()函数、神经网络层FORGET()函数、输出层GET()函数的作用。我们可以这样理解这三个函数:
输入层GET()函数就是要不要将分线剧情考虑到主线剧情之中(要不要做支线任务,以重不重要,会对结果产生怎么样影响来决定进行还是忽略)。
神经网络层FORGET()函数(分线剧情是否十分重要,需不需要我们暂时忘记主线剧情)。
输出层GET()函数(这一个分线剧情会对我们产生什么影响,是保留还是消除它的作用)。

这里写图片描述

PS:好吧,我承认我是标题党,我也承认图片不是仙一。

要获取 Long Short-Term Memory (LSTM) 的原始论文 PDF 文件,可以通过以下方法实现: ### 方法一:访问学术资源网站 Sepp Hochreiter Jürgen Schmidhuber 在 1997 年发表了 LSTM 的开创性论文《Long Short-Term Memory》。这篇论文可以在多个学术资源平台上找到,例如: - **arXiv**: 如果该论文已被上传到 arXiv,则可以直接通过搜索引擎输入标题查找。 - **Google Scholar**: 输入完整的论文名称 “Long Short-Term Memory”,通常会提供免费的 PDF 下载链接或者付费购买选项。 - **ResearchGate 或 Academia.edu**: 这些平台可能由作者或其他研究者分享了可公开下载的版本。 如果上述方式无法直接获得免费版 PDF,还可以尝试联系图书馆或教育机构订阅的服务数据库,比如 IEEE Xplore、SpringerLink 等[^1]。 ### 方法二:利用开源项目中的文档 一些深度学习框架(如 TensorFlow、PyTorch)以及教程博客可能会附带推荐阅读材料列表,其中包含经典模型的相关背景资料链接。此外,在 GitHub 上搜索关键词“lstm paper implementation”也可能发现有人整理好了原版文章供学习交流使用[^2]。 需要注意的是,在某些情况下,即使找到了合法渠道提供的电子副本,仍需注意版权规定以确保合理使用这些内容。 对于实际应用方面提到的新变种架构 xLSTM 改进了传统方法针对低频词汇建模效果不佳的问题;具体技术细节则需要查阅后续发展成果文献进一步了解[^3]。 ```python import requests def download_paper(url, filename="paper.pdf"): response = requests.get(url) with open(filename, 'wb') as f: f.write(response.content) # Example usage download_paper("https://www.example.com/path/to/lstm-paper", "Hochreiter_Schmidhuber_LSTM_1997.pdf") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值