[Scene Graph] Scene Graph Generation by Iterative Message Passing 论文解读

本文介绍了一种基于迭代消息传递的场景图生成方法,该方法通过利用全局上下文信息来增强物体标签和关系预测。采用RNN-based模型和GRU进行图推理,结合Primal-Dual更新机制,实现端到端的网络优化。通过messagepooling层隐性提取关系间的关联。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Scene Graph Generation by Iterative Message Passing (CVPR 2017) 论文解读
简介

这篇文章在解决scene graph generation这个问题中更加偏向环境全局的上下文信息对于物体标签和关系预测带来的提升。为了获取和利用上下文信息,文章采用RNN-based的网络模型进行图推理。为了简化计算过程和提高计算效率,作者采用GRU(Gated Recurrent Unit)和Primal-Dual更新的做法。为了隐性的提取固定关系之间的关联,文章使用了一个message pooling层按照权重加权每个节点或者边对于下一次迭代的影响。

数学模型

p(x∣I,BI)=∏i∈V∏i!=jp(xicls,xibbox,xi→j∣I,BI)p({\bf x}|I,B_I)={\prod_{i\in V}}{\prod_{i!=j}}p(x_i^{cls},x_i^{bbox},x_{i\rightarrow j}|I,B_I)p(xI,BI)=iVi!=jp(xicls,xibbox,xijI,BI)
从上述的数学模型公式中可以看出,在使用Faster R-CNN给出bounding box之后,作者偏向于使用一个端到端的网络同时进行bounding box优化区域标签预测物体关系预测。在使用RNN-based方法时会引入隐变量,而隐变量的信息与bounding box区域中的特征向量有关。于是数学模型变为:
Q(x∣I,BI)=∏i=1nQ(xicls,xibbox∣hi)Q(hi∣fiv)∏j!=iQ(xi→j∣hi→j)Q(hi→j∣fi→je)Q({\bf x}|I,B_I)=\prod_{i=1}^{n}Q(x_i^{cls},x_i^{bbox}|h_i)Q(h_i|f_i^v)\prod_{j!=i}Q(x_{i\rightarrow j}|h_{i\rightarrow j})Q(h_{i\rightarrow j}|f_{i\rightarrow j}^e)Q(xI,BI)=i=1nQ(xicls,xibboxhi)Q(hifiv)j!=iQ(xijhij)Q(hijfije)

网络模型

为了简化复杂图推理的过程,文章中使用了两个简化方法:使用GRU以及将原始图拆成以节点为中心和以边为中心的Primal-Dual两个子图。GRU是RNN的一个变种,RNN其中一个变种是非常有名的LSTM,即长短时记忆网络。而GRU的运算过程只有上一个时刻的信息传入,不需要对很久以前的信息用记忆门和遗忘门进行控制,可以看做是LSTM的简化版,效率更高。Primal-Dual更新机制的产生是由于作者观察到,如果将“物体”和“关系”都看成节点,那么由此构成的场景图是一个bipartie的图。
在这里插入图片描述
左边的就是场景图画的比较随意的形式,右边的就是画成二部图的形式了,其实只是调整了一下节点们的位置,其余的什么都没有变。例如,如果以节点Obj_1为中心,那么每次有信息传递的节点就是Rel_1,Rel_2和Rel_4。如果以Rel_4为中心,每次有信息传递的节点分别为Obj_1,Obj_4,Obj_2和Obj_3。这就是Primal-Dual图的更新模式啦。
可以看到对于每一个节点都有很多相邻接点作为输入,所以需要进行一个message pooling学习获得每一个输入节点所占的权重。对于“物体”节点来说:
mi=∑j:i→jσ(v1T[hi,hi→j])hi→j+∑j:j→iσ(v2T[hi,hj→i])hj→im_i=\sum_{j:i\rightarrow j}\sigma({\bf v}_1^T[h_i,h_{i\rightarrow j}])h_{i\rightarrow j}+\sum_{j:j\rightarrow i}\sigma({\bf v}_2^T[h_i,h_{j\rightarrow i}])h_{j\rightarrow i}mi=j:ijσ(v1T[hi,hij])hij+j:jiσ(v2T[hi,hji])hji
而对于“关系”节点来说:
mi→j=σ(w1T[hi,hi→j])hi+σ(w2T[hi,hj→i])hjm_{i\rightarrow j}=\sigma({\bf w}_1^T[h_i,h_{i\rightarrow j}])h_i+\sigma({\bf w}_2^T[h_i,h_{j\rightarrow i}])h_jmij=σ(w1T[hi,hij])hi+σ(w2T[hi,hji])hj
整体的网络模型就很清楚了~
在这里插入图片描述

### 回答1: 场景图生成是指将图像或视频中的物体和场景转化为一种图形结构,以便计算机能够理解和处理。这种技术可以用于计算机视觉、机器人、虚拟现实等领域。场景图生成的过程包括物体检测、物体识别、物体关系建模等步骤,最终生成一张包含物体和它们之间关系的图形结构。 ### 回答2: Scene graph generation(场景图生成)是一种计算机视觉技术。它的目的是将图像中的对象及其关系转化成为一种语义结构、层次图或图表,以便计算机更好地理解图像内容。这种技术是自动化场景理解的基础。在深度学习领域,基于神经网络的场景图生成技术由于其高度的可解释性已经成为了研究的热点。 场景图是一种形式化的描述图像语义的方法,通过将图像中的各种元素(物体、人、颜色、位置、关系等)组织成一种树形结构,来表示图像中物体的属性、关系和语义信息。它不仅可以支持对特定物体的检测和识别,还可以将物体之间的关系进行建模。这种方法可以被用于图像检索、目标跟踪、可视化以及更高级别的任务,如图像问答和基于图像的推理。 生成 scene graph 的技术可以分为两种:基于目标检测的方法和基于全局信息的方法。基于目标检测的方法是利用物体检测器来先分别找到物体,再整合场景图;而基于全局信息的方法是直接提取图像中物体和它们之间的关系的特征,为每个对象生成一个向量,然后用这些向量生成场景图。这两种方法各有优缺点,实际应用中需要根据实际情况来选择。 总之,场景图生成技术是计算机视觉领域的热门研究方向,它在图像理解、人机交互、自动驾驶、机器人等领域都有着广泛的应用价值。 ### 回答3: 场景图(Scene Graph)是指一种数据结构,它描述了场景中的物体、他们的关系、以及物体之间的作用。而场景图生成(Scene Graph Generation)是指将图像或视频中的内容转换为类似场景图的结构的任务。场景图生成通常涉及物体检测、实例分割、语义分割等计算机视觉任务。 场景图生成有着广泛的应用,例如图像描述生成、视觉问答、图像修复、物体识别、目标跟踪等任务。场景图还可以被用于智能辅助驾驶系统、机器人视觉导航和处理3D模型等领域。 实现场景图生成的方法有许多,其中主要包括基于模板的方法、基于神经网络的方法以及基于图像和视频分析的方法。在基于模板的方法中,人们会根据已有的场景图模板来填充场景中的物体和关系。在基于神经网络的方法中,人们会使用深度学习模型来自动地检测和分割图像或视频中的物体,并从中提取出物体之间的关系。而基于图像和视频分析的方法,则通过对图像或视频进行语义分析、物体检测以及图像分割,提取出场景中的各个元素,进而生成场景图。 然而,场景图生成仍然是一个非常挑战的任务,存在许多问题需要被解决。例如,如何处理多个物体之间的复杂关系、如何消除物体之间的干扰、如何处理图像中遮挡的问题等等。因此,对于场景图生成,仍然存在大量的研究的空间和需求。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值