LSTM模型的理解与介绍

一、前言

LSTM网络在实际应用中使用的非常多,这里只介绍LSTM,RNN和GRU网络等可以通过其他博客学习,文中图片来源于网络,文章参考于:http://colah.github.io/posts/2015-08-Understanding-LSTMs/博客;

二、模型结构

整体结构:包含遗忘门,输入门,输出门;

遗忘门:(1)上一层的隐状态h_{t-1}和当前层的输入x_{t}进行合并,通过sigmoid函数得到0,1输出来更新上一层的cell state C_{t-1},即控制旧状态C_{t-1}的取舍;

             (2)\tilde{C_{t}}h_{t-1}x_{t}合并之后通过一个tanh函数将输入控制在-1, 1之间,这部分个人理解相当于一个数据归一化的过程,随后通过i_{t}来决定新状态\tilde{C_{t}}的取舍;

 

输入门:根据公式可以很明显的看到,f_{t} * C_{t-1}控制旧状态的输入,i_{t} * \tilde{C_{t}}控制新候选值的输入,两者相加则得到新的cell state C_{t},这部分输出作为最终的cell state输出结果;

输出门C_{t}是包含了前一层输入的信息和当前层输入的信息的内容,那么C_{t}通过tanh函数进行处理之后的结果用于获取最后的输出结果也是需要进行一次过滤的,比如:C_{t}表示的是一个主语,那么输出可能需要得到一个谓语的输出;所以这一层通过o_{t}得到一个0,1结果来判断下一层的输出结果如公式所示;

LSTM模型的变体:模型的变体以及RNN模型通过网络资源自行学习。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值