pytorch深度学习:RNN循环神经网络(一)

本文介绍了RNN及其变种LSTM在自然语言处理中的应用,详细阐述了RNN的工作原理,包括Elman Network、Jordan Network和双向RNN。接着深入解析LSTM解决长序列训练问题的机制,通过实例展示了LSTM的计算过程,并提供了多层LSTM的框架图。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如果说CNN是神经网络在图像处理中应用最多的方法,那么RNN就是用在自然语言处理领域用得最多的方法。接下来的几节就用来学习下RNN的知识,以及怎么用pytorch来搭建一个RNN网络。

博客中的图片来自李宏毅老师的课程,课程中对于LSTM的讲解真的非常清晰,可以多观看几遍。同时也有篇很好的博客可以参考:博客

1.RNN的介绍

RNN也叫循环神经网络,全称为Recurrent Neural Network,它是一种对序列型数据进行处理的深度模型。它的原理框架如下图展示的一样:
在这里插入图片描述
它通过记忆单元(Memory Cell) 来储存上个样本的输出值或中间值,下一时刻的输出不仅与输入有关,还与上一时刻储存的值有关,因此RNN是具有记忆性的。

关于RNN的种类,先简单介绍3种,分别为:Elman Network、Jordan Network、Bidirectional RNN。

  • Elman Network: 它将recurrent层的输出经过时延后作为下一时刻这一层的输入的一部分,然后recurrent层的输出同时送到网络后续的层,比如最终的输出层。

  • Jordan Network: 直接把整个网络最终的输出(输出层的输出)经过时延后反馈回网络的输入层。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值