RNN和LSTM的原理

1、RNN和传统全连接神经网络的区别
在这里插入图片描述

RNN网络在传统全连接神经网络的基础上,新增上一个状态作为输入,展开结构如下:
在这里插入图片描述

尤其需要注意的是RNN输入间共享了一套参数(U,W,b) ,这也导致了梯度爆炸和梯度消失的原因,其次缺乏重点,引入attention机制。
2、LSTM的结构
LSTM在RNN的基础上引入了,遗忘门f、输入门i和输出门o 内部记忆单元c, 单独具有单元的(W,U,b)
遗忘门:控制上一状态的遗忘程度
输入门:控制当前输入的更新程度
内部记忆单元: 上一轮记忆和当前候选记忆 c_t=fc_t-1 + ic_t
输出门:控制输入x和当前输出,取决于当前记忆单元的程度大小
在这里插入图片描述

门控函数选择sigmoid和tanh函数的原因
sigmoid输出0~1,符合物理意义的开关
tanh函数输出-1~1,在0附近收敛快
3、GRU
GRU简化LSTM
在这里插入图片描述
选择哪个结构,需要数据结构

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值