RNN基础概念

一、潜变量回归模型

  使用潜变量 h t h_{t} ht总结过去的信息

在这里插入图片描述

二、RNN

  更新隐藏状态: h t = φ ( W h h h t − 1 + W h x x t − 1 + b h ) h_{t}=φ(W_{hh}h_{t-1}+W_{hx}x_{t-1}+b_{h}) ht=φ(Whhht1+Whxxt1+bh)

  更新输出: o t = W o h h t + b o o_{t}=W_{oh}h_{t}+b_{o} ot=Wohht+bo

  RNN的输出取决于当前输入前一时间的隐变量
在这里插入图片描述

三、困惑度

  衡量语言模型的好坏,可用平均交叉熵损失

π = 1 n ∑ i = 1 n − l o g p ( x i ∣ x i − 1 , . . . ) π=\frac 1n \sum_{i=1}^n -logp(x_{i}|x_{i-1},...) π=n1i=1nlogp(xixi1,...)

   p p p是语言模型的预测概率, x i x_{i} xi是真实词

  NLP领域使用困惑度 e x p ( π ) exp(π) exp(π) 来衡量语言模型的好坏,当 e x p ( π ) = 1 exp(π)=1 exp(π)=1时,结果完美;当 e x p ( π ) exp(π) exp(π)无穷大时,情况最坏

四、梯度裁剪

  梯度裁剪可有效预防梯度爆炸,即如果梯度长度超过 θ θ θ,则将其赋值为 θ θ θ

g = m i n ( 1 , θ ∣ ∣ g ∣ ∣ ) g g=min(1,\frac θ{||g||})g g=min(1,∣∣g∣∣θ)g

五、RNN的应用在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

晓shuo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值