【Attention】Visual Attention Network
文章目录一、背景二、动机三、方法3.1 Large Kernel Attention3.2 VAN四、效果4.1 分类4.2 目标检测4.3 语义分割论文链接:https://arxiv.org/abs/2202.09741代码链接:https://github.com/Visual-Attention-Network一、背景源于 NLP 的 self-attention 机制在应用于 2D 图像的时候,有三个问题:将 2D 的结果看做 1D 的序列,会损失 2D 空间结构高分辨率的图像会导致
原创
2022-03-02 16:41:43 ·
4527 阅读 ·
1 评论