CVPR 2019关于Attention导读与Bottom-up代码修改(已附github链接)

本文精选CVPR2019中视觉理解领域的前沿论文,包括注意力机制在VQA任务中的创新应用、CNN解释性增强、弱监督目标定位及多模态融合等,深入解析每项工作的动机、模型架构与实验结果。

本文为随笔,主要记录个人寒假的一些工作情况,其中2月份因病休息了两周

Things to do

  • Update the code of bottom-up-attention of Visual Question Answering
  • English prepration
  • Preprare the first draft of the paper and submit it to Arxiv
  • Follow the work in my paper list (4/7+1)
  • Build a homepage for myself

Overview of the papers in CVPR 2019

This list is filtered by one of the following keywords: attention, visual question answering

  1. Deep Modular Co-Attention Networks for Visual Question Answering
    这篇文章将Transformer的结构引入到VQA中,并设计了两个attention的模块:SA(self-attention)与GA(guided-attention), 如下图:
    tylukf Attention Module
    依照上图的module,可以组成更深度的attention模块。作者将该方法与dense attention的方法进行了比较(如BAN、MFH等),随着attention层数的递增,该方法的performance有更显著的提高。在此基础上,作者有提出了两种层数的叠加策略(inspired by the transformer):
    在这里插入图片描述
    另外作者做了三部分实验,值得我们参考:第一部分为MCAN(Modular Co-attention Net

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值