1、RNN和传统全连接神经网络的区别
RNN网络在传统全连接神经网络的基础上,新增上一个状态作为输入,展开结构如下:
尤其需要注意的是RNN输入间共享了一套参数(U,W,b) ,这也导致了梯度爆炸和梯度消失的原因,其次缺乏重点,引入attention机制。
2、LSTM的结构
LSTM在RNN的基础上引入了,遗忘门f、输入门i和输出门o 内部记忆单元c, 单独具有单元的(W,U,b)
遗忘门:控制上一状态的遗忘程度
输入门:控制当前输入的更新程度
内部记忆单元: 上一轮记忆和当前候选记忆 c_t=fc_t-1 + ic_t
输出门:控制输入x和当前输出,取决于当前记忆单元的程度大小
门控函数选择sigmoid和tanh函数的原因
sigmoid输出0~1,符合物理意义的开关
tanh函数输出-1~1,在0附近收敛快
3、GRU
GRU简化LSTM
选择哪个结构,需要数据结构