Dynamic Scene Graph Generation via Anticipatory Pre-training论文阅读笔记

本文介绍了一种针对视频场景图的前瞻性预训练范式,旨在捕捉时序关系中的视觉关系,通过空间编码器、渐进式时序编码器和全局时序编码器解决空间时间交织及AG数据集部分标注的问题。方法包括物体检测、特征提取、短时和长时编码,以及预训练和微调策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • Motivation
    在这里插入图片描述

过去的方法只是在特征维度上对时间信息进行建模,这是一种相对笼统的方式,因为它不能明确的捕捉到视觉关系在时序上的相关性。人类可以轻易的从过去已有的相关关系推出当前帧的视觉关系,但这种视觉推导是具体于时序关系的。因此我们需要解决一下两个问题:1.空间信息和时间信息是高度缠绕的,这不利于捕捉时序上具有关联性的关系;2.AG数据集不是全标注的,仅有某几个关键帧的标注。

  • Contribution

提出了针对视频场景图的anticipatory(?不知道怎么翻译)预训练范式,该范式能够在task-level上显式地对视觉关系进行时序相关性建模;

  • Method
    在这里插入图片描述

对于第 t t t帧图篇 I t I_{t} It,首先使用预训练检测器来检测第 t t t帧及之前帧的物体 b b o x bbox bbox框和类别。之后使用空间编码器来提取每一帧中物体对的视觉特征。然后是通过渐进的时间编码器来建模不同帧中物体对的长时时序相关度。需要注意的是,空间编码器和渐进式时序编码器是经过预训练的,对于第 t t t帧来说,它的渐进式时序特征来自前 t − 1 t-1 t1帧,在第 t t t帧,我们结合空间编码器提取空间特征和前 t − 1 t-1 t1帧的渐进式时序特征,通过一个全局时序编码器来提取当前帧的特征,并预测当前帧的物体对之间的关系信息,全局时序编码器是在微调阶段进行训练的。

在这里插入图片描述

首先使用目标检测器得到第 t t t帧第 i i i个物体的特征信息,包括视觉、位置、语音信息:
f t , i = [ M o v t , i , ϕ ( b t , i ) , s t , i ] f_{t, i}=[\textbf{M}_{o}v_{t, i}, \phi(b_{t, i}), s_{t, i}] ft,i=[Movt,i,ϕ(bt,i),st,i]
然后将该帧的所有物体看作一个特征序列,作为空间编码器的输入:
X s p a , t 0 = f t , 1 , f t , 2 , . . . , f t , N ( t ) X_{spa, t}^{0}={f_{t, 1}, f_{t, 2}, ..., f_{t, N(t)}} Xspa,t0=ft,1,ft,2,...

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值