
Transformer
文章平均质量分 87
cdknight_happy
种一棵树最好的时间是十年前,其次是现在!
展开
-
End-to-End Object Detection with Transformers
论文:https://arxiv.org/abs/2005.12872代码:https://github.com/facebookresearch/detr0 摘要作者提出了一种新的目标检测算法,把目标检测问题当做set预测问题进行处理。简化了传统的使用CNN进行目标检测的处理过程,移除了NMS后处理过程和anchor提供的先验知识。算法的核心部分叫做DETR,使用Transformer(Encoder + Decoder)实现目标类别和位置的预测。在COCO数据集上的目标检测效果和效率与高度优化的F原创 2021-11-12 15:57:40 · 3840 阅读 · 0 评论 -
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
论文:https://arxiv.org/abs/2010.11929#代码:https://github.com/lucidrains/vit-pytorchhttps://github.com/likelyzhao/vit-pytorch1 核心思想应用ViT进行图像分类的处理过程:输入图像分块,原始图像为x∈RH×W×Cx \in R^{H \times W \times C}x∈RH×W×C,分块后为xp∈RN×(P2C)x_p \in R^{N \times (P^2 C)}xp∈R原创 2021-11-02 11:45:02 · 757 阅读 · 0 评论 -
Attention is all you need
论文:https://arxiv.org/abs/1706.03762v5代码:https://github.com/jadore801120/attention-is-all-you-need-pytorch1 摘要序列转换模型一般基于RNN和CNN进行实现,包含了encoder和decoder,性能更好的模型还会在encoder和decoder之间使用attention模块进行连接。本文作者提出了一种新的称为Transformer的结构,完全使用attention块构建网络,不需要使用任何的RNN原创 2021-10-28 16:44:39 · 393 阅读 · 0 评论