CVPR 2020 的一篇自注意力机制

Contributions
-
explore variations of self-attention and assess their effectiveness for image recognition; 按两类self-attention进行探讨:pairwise self-attention & patchwise self-attention
-
主要结论:

Methods
-
Pairwise Self-attention

乘在beta(xj)上的weight只由xi,xj决定。可以通过加position encoding让网络知晓xi,xj的位置关系。
-
Patch Self-attention

乘在beta(xj)上的weight是由整个batch R

这篇CVPR 2020论文深入研究了自注意力机制在图像识别任务中的应用,对比了pairwise和patchwise两种类型的自注意力。文章指出,patchwise自注意力在准确性和成本上优于pairwise,并探讨了不同操作对结果的影响。
最低0.47元/天 解锁文章
1204

被折叠的 条评论
为什么被折叠?



