RNN模型数学推导过程(笔记)

一、定义

  1. 时间步: RNN按顺序处理输入序列。每个序列元素在特定的时间步(t 被输入网络。

  2. 隐藏状态: 这是RNN的“记忆”或“状态”所在。它是一个向量(h_t),总结了从序列开始(t=0)到当前时间步 t 所处理过的所有信息。h_t 被传递给下一个时间步 t+1,用于计算 h_{t+1}

  3. 输入: 在时间步 t,网络接收该时间步的输入向量 x_t

  4. 输出: 在时间步 t,网络可以产生一个输出向量 y_t(例如,预测下一个词、分类当前情绪等)。y_t 通常基于当前的隐藏状态 h_t 计算得出。

二、数学推导过程

        标准的RNN单元在每个时间步 t 执行以下计算:

  • 计算新的隐藏状态 h_t

  • 计算当前输出 y_t

  • 参数共享

        RNN的一个关键特征是参数共享

  • 权重矩阵 W_{hh}W_{xh}W_{hy}

  • 偏置向量 b_hb_y

        在所有时间步 t 上都是相同的。这意味着无论序列有多长,网络都使用同一套参数来处理序列中的每一个元素。这极大地减少了需要学习的参数数量,使模型能够泛化到不同长度的序列,也体现了“循环”的本质:相同的计算单元在每个时间步重复使用。

1、处理整个序列:展开计算图

        为了更清晰地理解信息流动和便于实现(尤其是反向传播),我们通常将RNN在时间维度上“展开”。

2、反向传播:BPTT(沿时间反向传播)

3、推导过程

三、核心挑战:梯度消失/爆炸问题

BPTT揭示了标准RNN的一个致命弱点:

1、梯度消失

2、梯度爆炸

四、为什么标准RNN难以学习长期依赖?

        正是因为梯度消失问题,标准RNN的隐藏状态 h_t 主要受最近几个时间步的输入影响。当序列很长时,网络几乎“忘记”了序列开头的信息。这严重限制了RNN处理长序列的能力

五、总结:标准RNN的数学原理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值