本文为随笔,主要记录个人寒假的一些工作情况,其中2月份因病休息了两周
Things to do
- Update the code of bottom-up-attention of Visual Question Answering
- English prepration
- Preprare the first draft of the paper and submit it to Arxiv
- Follow the work in my paper list (4/7+1)
-
Build a homepage for myself
Overview of the papers in CVPR 2019
This list is filtered by one of the following keywords: attention, visual question answering
-
Deep Modular Co-Attention Networks for Visual Question Answering
这篇文章将Transformer的结构引入到VQA中,并设计了两个attention的模块:SA(self-attention)与GA(guided-attention), 如下图:
tylukf
依照上图的module,可以组成更深度的attention模块。作者将该方法与dense attention的方法进行了比较(如BAN、MFH等),随着attention层数的递增,该方法的performance有更显著的提高。在此基础上,作者有提出了两种层数的叠加策略(inspired by the transformer):

另外作者做了三部分实验,值得我们参考:第一部分为MCAN(Modular Co-attention Net

本文精选CVPR2019中视觉理解领域的前沿论文,包括注意力机制在VQA任务中的创新应用、CNN解释性增强、弱监督目标定位及多模态融合等,深入解析每项工作的动机、模型架构与实验结果。
最低0.47元/天 解锁文章
947

被折叠的 条评论
为什么被折叠?



