
论文学习
路飞遇上娜美
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【NLP论文笔记】From Word Embeddings To Document Distances
华盛顿大学发表于2015年的一篇论文,主要讲的是一种计算文本(语句)相似度的方法论。 论文链接:http://proceedings.mlr.press/v37/kusnerb15.pdf 第一次接触关于nlp方面的文章,并记录学习历程。 From Word Embeddings To Document Distances 摘要: 本文主要提出了一种基于词移动距离(Word Mov...原创 2020-03-15 23:46:52 · 488 阅读 · 0 评论 -
如何阅读一篇文献
先说一下读文章时整体的战略布局,再说一下每个章节应该如何阅读。 “三步法”有效的阅读文献。 tips:清楚自己问什么读这篇文献,始终不忘初心。不要陷入细节中,花费大量的时间精力,读完却发现对自己的用处并不是很大。 第一步: 目标:快速浏览整篇文献,弄清楚大体想法。 时间:5--10分钟 需要阅读的内容主要包括: 1:认真阅读文章的题目,摘要,引言。 2:阅读标题和子标题,除此...原创 2019-10-12 11:43:10 · 696 阅读 · 0 评论 -
Non-local Neural Networks
论文地址:https://arxiv.org/abs/1711.07971v1 问题背景: 由于经典的卷积和循环神经网络每次都只是针对局部 local neighborhood 进行处理,比如卷积操作只关注局部感受野(也就是卷积核覆盖的局部范围)的信息,这是典型的local operation,如果要增大神经元的感受野,你可能会想到将卷积核的大小设置成 feature map的尺寸,这样就能感受到...原创 2019-09-23 19:34:21 · 342 阅读 · 0 评论 -
CCNet: Criss-Cross Attention for Semantic Segmentation
论文地址:https://arxiv.org/abs/1811.11721 论文代码:https://github.com/speedinghzl/CCNet 1 摘要 CCNet的优点: 占用较少的GPU内存。循环的交叉注意模块有效减少GPU内存使用。 计算效率高。在计算远程依赖关系时,反复出现的交叉注意显著减少了约85%的非本地块。 性能先进 主要贡献: 提出了一个新颖的纵横交叉关注...原创 2019-09-24 17:55:52 · 882 阅读 · 0 评论 -
SENet:Squeeze-and-Excitation Networks
论文:《Squeeze-and-Excitation Networks》 论文链接:https://arxiv.org/abs/1709.01507 代码地址:https://github.com/hujie-frank/SENet PyTorch代码地址:https://github.com/miraclewkf/SENet-PyTorch 一:SENet概述 Sque...原创 2019-09-25 17:43:22 · 505 阅读 · 0 评论