循环神经网络

循环神经网络(RNN)旨在处理序列信息,但面临梯度消失和梯度爆炸的问题。GRU和LSTM作为改进的RNN结构,通过门控机制缓解这些问题。GRU具有更少的参数,适合训练数据有限的场景。Text-RNN和RCNN则是RNN在文本分类和句子理解中的应用变体。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

循环神经网络(RNNs

1 RNN结构

RNN(Recurrent neural network)是为了解决什么一个问题的呢?因为一般情况下序列的信息决定事件本身。如果我们试图使用这类数据得到有用的输出,就需要一个这样的网络:能够访问一些关于数据的先前知识(prior knowledge),以便完全理解这些数据。因此,RNN就出现了。

在最原始的情况下,RNN的网络结构如下图:

在这里插入图片描述

其中,U是输入层到隐藏层的权重矩阵,o是输出层的值,V是隐藏层到输出层的权重矩阵,权重矩阵W是隐藏层上一次的值作为下一次输入的权重。然后每次来的时候都会更新权重W,如此往复循环,这或许就是循环神经网络的由来吧。

当然,我们为了方便理解RNN的话,可以将我们RNN网络展开:

在这里插入图片描述

在这个网络中,时刻t接收到输入之后,隐藏层的值是 S t S_t St,输出值是 O t O_t Ot。从网络中可以看出, S t S_t St

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值