LSTM(long short term memory)

1、解决了RNN梯度弥散的问题。

2、解决了记忆长度的问题。(RNN记忆更偏向指定词附近的词,short term memory)

原始的RNN原理图

LSTM原理:设置了三道‘门’     有\sigma代表sigmod即有一道“门”

 第一道门:遗忘门

 经过\sigmaf_{t}(代表开度)变为0-1,当等于0的时候代表全部遗忘,等于1代表全部记住。

第二道门:输入门

之后得到更新结果C_{t},也就是memory

 第三道门:输出门

 整体原理即

梯度弥散解决

 原来的RNN梯度计算如上图右下角,是一个累乘,容易出现小都小,大都大的情况(存在W_{hh}^{k}),当我们使用LSTM时,发现加法可以很好的避免梯度弥散现象。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值