A ConvNet for the 2020s 论文解读
引言
ViT提出之后(只针对分类任务),Swin Transform 在图像领域(分类下游任务)的全面大幅度超越 CNN 模型, 仿佛印证了 Attetion 论文中 “Attention Is All You Need ”。当读到 Attetion 论文中这句话时,不自觉的回忆起电视剧中,释迦摩尼出生时,一手指天,一手指地,然道:“天上地下 ,唯我独尊”。
ConVNeXt 这篇文章,通过借鉴 swin TransForm 精心构建的 tricks,卷积在图像领域反超 Transform。这些技巧对分
原创
2022-01-26 15:21:58 ·
5776 阅读 ·
2 评论