引言
LSTM应该说是每一个做机器学习的人都绕不开的东西,它的结构看起来复杂,但是充分体现着人脑在记忆过程中的特征,下面本文将介绍一下LSTM的结构以及pytorch的用法。
LSTM结构
总体结构

首先,LSTM主要用来处理带有时序信息的数据,包括视频、句子,它将人脑的对于不同time step的记忆过程理解为一连串的cell分别对不同的时刻输入信息的处理。
详细结构
一个典型的 LSTM 结构可以分别从输入、处理和输出三个角度来解析:
- 输入: 输入包含三个部分,分别是 cell 的信息𝐶t-1,它代表历史的记忆细胞(cell)状态信息的汇总;隐藏层的信息ht-1, 它是提取到的上个时刻的特征信息; 以及当前的输入𝑥t。
- 处理: 处理部分主要是由遗忘门、输入门、输出门组成。遗忘门由当前的输入和隐藏层信息控制对于历史的 cell 信息的遗忘程度;输入门是决定当前的输入和隐藏
层信息的利用程度;输出门是由当前的 cell 状态和输入决定输出。 - 输出: 分别是当前的 cell 状态𝐶’和当前的隐藏层信息h’。
遗忘门:

输入门:

细胞状态更新:

输出门:

Pytorch用法
参数介绍
class torch.nn.LSTM(*

本文深入解析了LSTM的结构原理,阐述其在处理时序数据如视频和句子方面的应用,并通过实例展示了Pytorch中LSTM的使用方法及参数配置,包括输入输出格式、隐藏层信息获取等。
最低0.47元/天 解锁文章
589

被折叠的 条评论
为什么被折叠?



