机器学习
林大大zzz
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
浅谈对Attention机制的理解及Keras实现
上篇文章讨论了下LSTM,说到LSTM就很难绕开Attention,这俩货一般连着用,以发挥更大的效果,所以这次我们来谈谈Attention机制。直观理解Attention机制,也就是注意力机制。我的理解是,它是一种自动加权方案,能帮我们自动找出对当前具体任务(比如分类、机器翻译等)最有贡献的样本。举个例子,如果判断一句话“你真帅”是夸奖还是贬低,那么显然“帅”字对分类的贡献比另外两个...原创 2019-11-13 22:40:16 · 4153 阅读 · 2 评论 -
浅谈对LSTM的理解与Keras代码实现
浅谈对LSTM的理解与Keras代码实现LSTM这东西,仔细想来我已经看了不下三四遍了,本科毕业设计做的也是用LSTM去检测网络异常流量。但总觉得对LSTM的理解还是非常表面,很多细节的东西并不是很清楚。最近在准备NLP的大作业,再次回顾了一下LSTM,觉得对很多问题有了新的认识。下面简单谈谈我对LSTM的理解及其在Keras中的实现。直观理解Long Short Term Memory...原创 2019-11-08 23:28:23 · 1387 阅读 · 1 评论
分享