papers
文章平均质量分 56
highoooo
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文阅读 Attention is all u need - transformer
提出一个仅需要self attention + linear组合成encoder+decoder的模型架构。原创 2024-01-09 15:29:46 · 1453 阅读 · 0 评论 -
论文阅读 Vision Transformer - VIT
通过将图像切成patch线形层编码成token特征编码的方法,用transformer的encoder来做图像分类multihead和我原有的理解偏差修正。我以为的是QKV会有N块相同的copy(),每一份去做后续的linear等操作。代码里是直接用linear将QKV分为一整个大块,用permute/rearrange的操作切成了N块,f(Q,K)之后再恢复成一整个大块,很强。原创 2024-01-15 14:25:13 · 944 阅读 · 1 评论 -
论文阅读 BERT GPT - transformer在NLP领域的延伸
双向 编码器加上mask做完形填空超大模型无监督预训练 需要整个模型作为pretrain weight到下游任务做fintune总结个毛。原创 2024-01-09 19:02:30 · 903 阅读 · 1 评论 -
我在self-attention中对Query,Key,Value的理解
Non-local means可先了解相关内容Non-local meansNon-local Neural Networks作用:突破局部限制,不管是CNN还是RNN计算式图解论文原创 2022-03-18 13:55:44 · 1646 阅读 · 0 评论 -
从network in network 、Inception 到 Xception 做个总结
看完论文就写原创 2021-12-02 16:10:12 · 1076 阅读 · 0 评论 -
论文阅读 Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
真是没啥好说的 简单粗暴 resnet+inception原创 2021-12-02 16:03:27 · 1084 阅读 · 0 评论 -
论文阅读 Rethinking the Inception Architecture for Computer Vision
1 摘要1.1 本文要解决的问题(优化InceptionV1)Here we will describe a few design principles based on large-scale experimentation with various architectural choices with convolutional networks提出了一些被证明有用的、用于扩展网络结构的一般性准则和优化方法,并优化InceptionV12 一般性准则和优化方法2.1 避免在网络初期就将特征极度原创 2021-12-02 15:36:37 · 1362 阅读 · 0 评论 -
论文阅读 Going Deeper with Convolutions - GoogLeNet/Inceptionv1
文章目录1 本文意图解决什么问题1.1 以前增加depth和width带来的问题2 如何解决增加depth和width带来的问题2.1 提出 Inception 结构,人为构建稀疏连接,引入多尺度感受野和多尺度融合2.2 使用 1X1 卷积2.3 辅助分类器 auxiliary classifiers1 本文意图解决什么问题By a carefully crafted design, we increased the depth and width of the network while keepin原创 2021-12-02 11:05:49 · 851 阅读 · 0 评论
分享