【人工智能基础08】循环神经网络(RNN)与长短时记忆网络(LSTM):处理和预测序列数据

一. RNN

RNN出现的原因与基本逻辑

  1. 卷积神经网络模型,层与层之间是全连接或部分连接的,但每层之间的节点没有连接。
  2. 考虑这样一个问题,如果要预测一个句子的下一个单词是什么,一般需要用到当前单词及前面的单词,因为句子中前后单词并不是独立的。例如,当前单词是“很”,前一个单词是“天空”,那么下一个单词很大概率是“蓝”。这样的应用CNN并不擅长。 由此出现了可以用来处理和预测序列数据的循环神经网络(RNN)。
  3. 人类在阅读时会根据之前已经加过工过的信息来理解现在看到的文字,与此类似,RNN对信息的处理方式也是如此,会记忆之前的信息,并利用之前的信息影响后面节点的输出。 体现在网络结构上,RNN隐藏层之间的节点是有连接的,隐藏层的输入不仅包括输入层的输出, 还包括上一时刻隐藏层的输出。

 

RNN的发展

随着更加有效的循环神经网络结构(LSTM、GRU)等被不断提出,以RNN为基础的网络挖掘数据中的时序信息和语义信息的深度表达能力被充分利用,并广泛应用于情感分析、机器翻译、语言模型和语音识别等领域

本文介绍的循环神经网络指的是简单RNN。

 

1. 循环神经网络结构

循环神经网络结构

下图展示了一个典型的循环神经网络结构图,主体结构A的输入除了来自输入层 x t x_t xt ,还有一个循环的边提供上一时刻的隐藏状态 h t − 1 h_{t-1} ht1。在每一时刻,循环神经网络的模块A在读取了 x t x_t xt h t − 1 h_{t-1} ht1之后,会生成新的隐藏状态 h t h_{t} ht ,并产生本时刻的输出 O t O_{t} Ot

 

序列的保存逻辑

由于序列长度可以无限长,维度有限的 h t h_{t} ht状态不可能将序列的全部信息都保存下来,因此循环神经网络只保存与后面任务 O t , O t + 1 . . . O_{t},O_{t+1}... O

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

roman_日积跬步-终至千里

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值