Meet and understand Attention
今天是2018年12月24号,时间又过去一天啦!2018年的年末即将来临,小亮抓紧时间与各位IT&NLP好友分享Attention,让大家过一个充实的双节!(圣诞节&元旦节)今天这一部分内容是补充前面(一)(二)(三)的attention以及一些思考 我是赵小亮,一枚NLP大道上的小白,今天我们一起来学Attention!用文字记载生活、用文字书写科研中的故事、用文字传播NLP领域的点点滴滴,你我共同成长!
AI大餐回顾:本周小亮主要讲解Attention系列专题,大概有八大板块,从Attention Mechanism的起源、历史、变种、相关论文《Attention Is All You Need》以及实战,还有一些思考,带领大家一起吃Attention这顿大餐!
笔者信息:Next_Legend QQ:1219154092 机器学习 自然语言处理 深度学习 统计概率论
小亮的博客:https://legendtianjin.github.io/NextLegend.github.io/ ——2018.12.24于北洋
六、国外某公司的attention资料
今天这部分资料是国外某公司的attention资料,小亮把它放在这里是为了佐证前面咱们讲的内容以及再回顾一下Attention的相关内容,话不多说,开干!资料小亮存储在小亮私人博客








七、Attention Mechanism的一些思考
这里小亮分析思考了一下Attention Mechanism的优缺点,让大家对于自己NLP任务是否可以嵌入Attention有一个心理上的衡量标准。


八、Attention Mechanism相关论文及资料
最后,这里小亮把上述所有的参考论文都附在这里,供大家参考学习!!!


博主赵小亮在2018年末分享Attention机制的补充内容,涵盖起源、历史、变种、优缺点分析和相关论文,旨在帮助IT&NLP爱好者深入理解Attention并为NLP任务提供实践指导。
3712

被折叠的 条评论
为什么被折叠?



