
Transformer
文章平均质量分 87
低吟浅笑
平庸并不可耻,只是你暂时还不够出色。 无知也并不可耻,只是你暂时还不够博学。 肤浅也并不可耻,只是你暂时还不够深刻。 我们只为自己而活。
展开
-
最详细的Transformer讲解,Attention Is All You Need
前言Attention Is All You NeedGoogle Brain 引用量:30255(1/3 ResNet)贡献:Transformer 是第一个完全依赖自注意力来计算其输入和输出表示而不是使用序列对齐的RNN和CNN。一直听别人说Transformer,搞不清楚是什么。可以不用,但是需要理解。但现有的博客,感觉大多轻飘飘的,甚至没讲清楚 attention 和 self-attention的区别,q,k,v表示什么意义,怎么引入等等。我这里做了一点小总结...原创 2021-11-13 11:16:28 · 4819 阅读 · 57 评论 -
ViT论文详解
VIT探索了Transformer在图像识别中的直接应用。与在计算机视觉中使用自注意力的先前工作不同,除了初始patch提取步骤之外,不会将特定于图像的归纳偏差引入架构中。相反,将图像解释为一系列patch,并通过 NLP 中使用的标准 Transformer 编码器对其进行处理。这种简单但可扩展的策略在与大型数据集的预训练相结合时效果出奇地好。因此,Vision Transformer 在许多图像分类数据集上匹配或超过了现有技术,同时预训练成本相对较低。...原创 2022-06-22 21:46:43 · 1272 阅读 · 0 评论