LSTM的原理以及其pytorch实现(一)原理部分

RNN的变形GRU用于处理序列信息。通常应用于自然语言处理、时间序列预测、文本情感分类等。RNN具有这种能力的原因是,它的神经元能够记住之前的输入的信息,在一定程度上实现了输入序列的信息融合,并予以计算推测。

目录

1.RNN神经网络的连接方式

2.LSTM的核心思想

1.RNN神经网络的连接方式

RNN神经网络的在某一时间步的连接方式与一般的神经网络连接方式相同。这个连接可大致分为三个部分:输入层,隐藏层,输出层。如下图所示:

与一般的神经网络不同的是:RNN带有时间维度。如何理解呢?如果将其想象成图形,它是什么样子的呢?如果我们将不同的时刻对应的网络拆开来看,它将变成一个三维的图。如图所示:

粉红色的球代表输入层,某一时刻(如t=1)小球的数量(3)就代表输入向量的长度为3;蓝色的代表RNN的隐藏层神经元,数量就代表神经元的数量;绿色的代表输出层,数量就代表输出向量的长度 。

但是这并不代表有几个时刻的输入&

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值