深入理解Attention及变种(四)

博主赵小亮在2018年末分享Attention机制的补充内容,涵盖起源、历史、变种、优缺点分析和相关论文,旨在帮助IT&NLP爱好者深入理解Attention并为NLP任务提供实践指导。

Meet and understand Attention

        今天是2018年12月24号,时间又过去一天啦!2018年的年末即将来临,小亮抓紧时间与各位IT&NLP好友分享Attention,让大家过一个充实的双节!(圣诞节&元旦节)今天这一部分内容是补充前面(一)(二)(三)的attention以及一些思考 我是赵小亮,一枚NLP大道上的小白,今天我们一起来学Attention!用文字记载生活、用文字书写科研中的故事、用文字传播NLP领域的点点滴滴,你我共同成长!
        AI大餐回顾:本周小亮主要讲解Attention系列专题,大概有八大板块,从Attention Mechanism的起源、历史、变种、相关论文《Attention Is All You Need》以及实战,还有一些思考,带领大家一起吃Attention这顿大餐!
笔者信息:Next_Legend QQ:1219154092 机器学习 自然语言处理 深度学习 统计概率论
小亮的博客:https://legendtianjin.github.io/NextLegend.github.io/ ——2018.12.24于北洋

六、国外某公司的attention资料

        今天这部分资料是国外某公司的attention资料,小亮把它放在这里是为了佐证前面咱们讲的内容以及再回顾一下Attention的相关内容,话不多说,开干!资料小亮存储在小亮私人博客

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

七、Attention Mechanism的一些思考

        这里小亮分析思考了一下Attention Mechanism的优缺点,让大家对于自己NLP任务是否可以嵌入Attention有一个心理上的衡量标准。

在这里插入图片描述
在这里插入图片描述

八、Attention Mechanism相关论文及资料

        最后,这里小亮把上述所有的参考论文都附在这里,供大家参考学习!!!

在这里插入图片描述
在这里插入图片描述

       今天的深入理解Attention及变种(三四内容就到这里哈,大家如果没有明白的可以单独添加小亮的QQ,我们私下里联系哈!!!

       AI大预告:Attention及变种(五)内容主要基于Self-Attention文本分类代码实践,是大家非常关注的一个内容,大家继续跟着小亮学习哈!坚守好最后一班岗,送佛送到西,方能取到真经!!!!很重要!很重要!!很重要!!!同样,重要的事情说三遍,自己衡量哈!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值