论文学习
路飞遇上娜美
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【NLP论文笔记】From Word Embeddings To Document Distances
华盛顿大学发表于2015年的一篇论文,主要讲的是一种计算文本(语句)相似度的方法论。论文链接:http://proceedings.mlr.press/v37/kusnerb15.pdf第一次接触关于nlp方面的文章,并记录学习历程。From Word Embeddings To Document Distances摘要:本文主要提出了一种基于词移动距离(Word Mov...原创 2020-03-15 23:46:52 · 551 阅读 · 0 评论 -
如何阅读一篇文献
先说一下读文章时整体的战略布局,再说一下每个章节应该如何阅读。“三步法”有效的阅读文献。tips:清楚自己问什么读这篇文献,始终不忘初心。不要陷入细节中,花费大量的时间精力,读完却发现对自己的用处并不是很大。第一步:目标:快速浏览整篇文献,弄清楚大体想法。时间:5--10分钟需要阅读的内容主要包括:1:认真阅读文章的题目,摘要,引言。2:阅读标题和子标题,除此...原创 2019-10-12 11:43:10 · 758 阅读 · 0 评论 -
Non-local Neural Networks
论文地址:https://arxiv.org/abs/1711.07971v1问题背景:由于经典的卷积和循环神经网络每次都只是针对局部 local neighborhood 进行处理,比如卷积操作只关注局部感受野(也就是卷积核覆盖的局部范围)的信息,这是典型的local operation,如果要增大神经元的感受野,你可能会想到将卷积核的大小设置成 feature map的尺寸,这样就能感受到...原创 2019-09-23 19:34:21 · 356 阅读 · 0 评论 -
CCNet: Criss-Cross Attention for Semantic Segmentation
论文地址:https://arxiv.org/abs/1811.11721论文代码:https://github.com/speedinghzl/CCNet1 摘要CCNet的优点:占用较少的GPU内存。循环的交叉注意模块有效减少GPU内存使用。计算效率高。在计算远程依赖关系时,反复出现的交叉注意显著减少了约85%的非本地块。性能先进主要贡献:提出了一个新颖的纵横交叉关注...原创 2019-09-24 17:55:52 · 934 阅读 · 0 评论 -
SENet:Squeeze-and-Excitation Networks
论文:《Squeeze-and-Excitation Networks》论文链接:https://arxiv.org/abs/1709.01507代码地址:https://github.com/hujie-frank/SENetPyTorch代码地址:https://github.com/miraclewkf/SENet-PyTorch一:SENet概述 Sque...原创 2019-09-25 17:43:22 · 527 阅读 · 0 评论
分享