背景
本篇论文的工作来自于香港中文大学-商汤联合实验室。与DFAF出自同一作者之手。论文接收于ICCV2019
摘要
现有的解决VQA问题的方法大都是关注于各个独立的image regions于question words之间的联系(比如对intra-modal、inter-modal的联系建模,使用SA、GA等各注意力手段),始终是从局部的视角来捕捉特征间的联系。(缺乏大局观,对全局特征利用甚少,这与人类回答VQA问题有所不同,人善于利用各种信息进行summarization,从全局的视野来完成这个任务)。
前人对特征的处理方式与本文提出的方法

框架

与DFAF网络结构类似的是,本文提出的MLIN网络也是由MLI这样的block堆叠而成。送入网络的图文特征表示为

每种模态的特征进行summarization操作,得到k个向量表示。每种模态的k个summarization vector可以理解成是从全局视角捕捉到输入特征的k个不同方面的表示。 由sumarization vector组成的矩阵分别记为 R ^ \hat R R^和 E ^ \hat E <
多模态融合在视觉问答中的MLIN网络

本文提出了一种名为MLIN的多模态潜在交互网络,用于视觉问答(VQA)。与现有方法相比,MLIN通过全局特征总结和模态间交互来捕获更全面的上下文信息,提高了VQA任务的性能。实验表明,MLIN在减少消息传递时间的同时,在基准数据集上表现出强劲的竞争力,并强调了预训练语言模型在问题编码中的重要性。
最低0.47元/天 解锁文章
1057

被折叠的 条评论
为什么被折叠?



