Dream4Drive:一个能够提升下游感知性能的世界模型生成框架

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近30个方向学习路线

>>自动驾驶前沿信息获取自动驾驶之心知识星球

论文作者 | Kai Zeng等

编辑 | 自动驾驶之心

最新的自动驾驶世界模型已经可以实现高质量的可控多模态视频生成。现有方法主要关注与生成质量和可控性相关的指标,却往往忽视了对下游感知任务的评测——而这些任务对自动驾驶性能至关重要。现有方法通常采用“先在合成数据上预训练,再在真实数据上微调”的训练策略,导致训练epoch是基准模型(仅使用真实数据)的两倍。而当我们将基准模型的训练epoch翻倍时,合成数据的优势便会变得微乎其微。

为充分证明合成数据的价值,北京大学、小米汽车和华中科技大学的团队提出了Dream4Drive——一种全新的合成数据生成框架,专为提升下游感知任务性能设计。Dream4Drive首先将输入视频分解为多个3D感知引导图(3D-aware guidance maps),随后将3D资产渲染到这些引导图上;最后,通过微调世界模型,生成经过编辑的多视角真实视频,该视频可用于训练下游感知模型。Dream4Drive能够前所未有地灵活生成大规模多视角极端场景,显著提升自动驾驶中的极端场景感知能力。

为助力未来研究,Dream4Drive还构建了一个大规模3D资产数据集DriveObj3D,涵盖驾驶场景中的典型类别,可支持多样化的3D感知视频编辑。大量实验表明,在不同训练epoch下,Dream4Drive均能有效提升下游感知模型的性能。

  • 论文名称:Rethinking Driving World Model as Synthetic Data Generator for Perception Tasks

  • 论文链接:https://www.arxiv.org/abs/2510.19195

  • 项目链接:https://wm-research.github.io/Dream4Drive/

一、背景回顾

3D目标检测和跟踪等感知任务是下游决策规划的重要输入模块。然而感知模型的性能高度依赖大规模人工标注训练数据集。为确保在极少数罕见的安全场景中具备可靠性,获取充足的长尾数据十分重要。尽管自动驾驶领域已开发出完善的4D标注流程以简化数据获取,但收集长尾数据仍需耗费大量时间与人力。

基于扩散模型和ControlNet的自动驾驶世界模型已在业内得到应用,可根据场景布局(BEV map、3D目标框和文本生成)合成数据。但这类模型对单个目标的位姿和外观控制能力有限,导致难以生成多样化的合成数据。与之不同,视频编辑方法(而非生成方法)通过参考图像和3D边界框修改目标的外观与位姿,扩展了自动驾驶世界模型的能力,可生成多样化极端场景;但单视角插入的局限性使其无法应用于环视BEV感知任务。

基于神经辐射场(NeRF)或3D高斯splatting(3DGS)的重建类方法,能够实现对几何结构的精确控制;尽管这类方法能保留几何信息,但稀疏的训练视角往往会导致生成结果出现伪影和渲染不完整的问题,且缺乏光照建模会造成插入目标与背景之间的视觉不一致。

更重要的是,我们认为现有方法的合成数据增强实验存在公平性问题:它们通常采用“先合成数据预训练、再真实数据微调”的策略,导致训练epoch是基准模型(仅用真实数据)的两倍。我们发现,在训练轮次相同的情况下,大规模合成数据集不仅难以体现优势,甚至可能比仅使用真实数据的效果更差。如图1所示,在2× epoch设置下,仅用真实数据训练的模型在平均精度均值(mAP)和nuScenes检测得分(NDS)上,均优于结合真实数据与合成数据训练的模型。鉴于下游感知任务对自动驾驶的重要性,我们认为有必要重新审视“自动驾驶世界模型作为感知任务合成数据生成器”的有效性。

为重新评估合成数据的价值,我们提出了Dream4Drive——一种专为下游感知任务设计的3D感知合成数据生成框架。其核心思路如下:首先将输入视频分解为多个3D感知引导图,随后将3D资产渲染到这些引导图上;最后通过微调驾驶世界模型,生成经过编辑的多视角照片级真实感视频,用于训练下游感知模型。通过这一流程,我们可在同一场景中融入具有不同轨迹(如视角、位姿、距离)的多种资产,显著提升合成数据的多样性。

如图1所示,在相同训练轮次(1×、2×或3×)下,我们的方法仅需420个合成样本(不足真实样本的2%),即可超越现有数据增强方法。据我们所知,本文首次通过公平对比证明:合成数据在性能上可超越仅使用真实数据的训练方式,为感知任务带来切实增益。

具体而言,Dream4Drive基于Diffusion Transformer微调得到多视角视频修复模型。与依赖稀疏空间控制(如BEV、3D边界框)的现有方法不同,Dream4Drive采用密集型3D感知引导图(如深度图(depth)、法向量图(normal)、边缘图(edge)、裁剪图(cutout)、掩码图(mask)),在保留原始视频几何与外观信息的同时,通过将3D资产渲染到引导图中实现编辑。这种设计支持实例级、跨视角一致的视频编辑,同时保证视觉真实感与几何准确性。生成的视频不仅质量优异,还可直接用于训练最先进的感知模型。

为支持多样化的3D感知视频编辑,Dream4Drive设计了一套流程:基于目标场景图像或特定类别资产的视频,自动获取高质量3D资产。流程步骤如下:

  • 1)采用图像分割模型定位并裁剪指定类别的目标;

  • 2)使用图像生成模型生成目标目标的多视角一致图像;

  • 3)将这些图像输入网格生成模型,生成高质量3D资产。

Dream4Drive构建了大规模3D资产数据集DriveObj3D,涵盖驾驶场景中的典型类别,可为未来研究提供支持。本文的主要贡献如下:

  1. 发现现有数据增强方法的评估存在公平性问题:在训练轮次相同时,“真实数据+合成数据”的混合数据集相比仅使用真实数据并无优势;

  2. 提出3D-aware合成数据生成框架Dream4Drive,通过密集引导图实现视频编辑,生成兼具外观多样性与几何一致性的合成数据;

  3. 构建大规模数据集DriveObj3D,涵盖驾驶场景典型类别,支持3D感知视频编辑。

不同训练轮次下的大量实验表明,仅添加极少量的合成数据,即可显著提升感知性能,充分验证了Dream4Drive的有效性。

二、Dream4Drive算法详解

本文的目标是从带有3D box标注的真实视频和目标3D资产中生成高质量合成视频,用于训练感知模型。

预备知识

潜在扩散模型LDM通过在低维潜在空间中运算,解决了扩散模型计算成本高的问题。对于图像 ,首先使用编码器 得到其对应的潜在表示 。潜在空间中的前向扩散过程定义为一个逐步加噪过程:

其中 为方差调度(variance schedule)参数——该参数会随扩散步骤 调整,用于控制每一步向潜在变量 中添加的噪声强度,确保前向过程能平稳地将初始潜在变量 (对应原始图像 )转化为完全随机的噪声分布。

反向扩散过程由神经网络 建模,其核心是从带噪潜在变量 中逐步去除噪声,恢复出初始潜在变量 ,其参数化形式为:

其中 是模型预测的均值, 是模型预测的方差(部分方法中会固定方差以简化计算),二者均由网络 基于当前带噪潜在变量 和扩散时间步 预测得到。

最终,解码器 将去噪后的初始潜在变量 映射回图像空间,重建出与原始图像结构一致的图像,即

ControlNets通过引入额外的条件信号 对LDMs进行扩展,从而实现对生成过程的更精细控制。具体而言,反向扩散过程被修改为依赖条件 ,即网络 的输入不仅包含 ,还新增了条件信号 ,此时反向扩散过程的核心预测函数变为 ,对应的反向分布修正为:

这种修改使模型能根据条件信号 调整去噪方向:条件变量 可融入多种形式的引导信息,包括空间图(如深度图、边缘图)、语义布局(如目标类别掩码)以及其他任务特定信号(如文本描述的目标属性)。通过将 的特征进行融合,ControlNets能够在保留扩散模型生成质量的同时,更精确地操控生成内容的结构、位姿或语义,从而提升合成图像与目标需求的匹配度。

3D-aware场景编辑

对于输入RGB图像 ,首先使用Depth Anything模型获取深度图 ,再从深度图中推导得到法向量图 ;同时,采用OpenCV的Canny边缘检测器提取边缘图 。需要特别注意的是,前景目标区域内的深度、法向量和边缘信息会被掩码(masked)处理,因为模型需要基于目标3D资产学习生成编辑后的视频。

对于DriveObj3D数据集中的目标3D资产,首先根据给定的3D边界框 将其定位到原始视频的3D空间中。随后,针对每一帧和每个视角,利用标定后的相机内参 和外参 对目标3D资产进行渲染,得到目标图像 和目标掩码

在获取背景的深度图、法向量图、边缘图以及目标3D资产的渲染目标图像和目标掩码后,我们利用微调后的自动驾驶世界模型,基于这些3D感知引导图渲染编辑后的视频。该3D感知场景编辑流程充分利用了3D资产提供的精确位姿、几何和纹理信息,确保生成结果的几何一致性。值得注意的是,本文方法不依赖3D边界框嵌入来控制目标位置,而是直接在3D空间中进行编辑,这种方式更直观且可靠性更高。

3D-aware视频渲染

现有方法的视频生成过程依赖稀疏空间控制(如BEV地图和投影3D边界框)。尽管这种方式能对合成内容实现一定控制,但在生成高质量视频方面往往存在不足。本文不依赖稀疏空间控制,而是通过微调自动驾驶世界模型,从背景的深度图( )、法向量图( )、边缘图( )以及前景目标的图像( )和掩码( )中生成编辑后的视频。

多条件融合适配器的结构如图4所示。首先通过变分自编码器(VAE)对五种条件(深度图、法向量图、边缘图、目标图像、目标掩码)进行编码,然后采用不同的3D嵌入器(3D embedders)对潜在变量进行分块(patchify)处理;随后,融合网络(FusionNet)模块对这五组特征进行融合,融合过程可通过以下公式描述:

其中 分别表示深度图、法向量图、边缘图、目标图像和目标掩码, 表示沿通道维度的拼接操作。融合后的特征被融入扩散Transformer(DiT)架构的控制块(control blocks)中,丰富语义信息,从而实现实例级的空间对齐、时间一致性和语义保真度。控制块的输出进一步整合到基础块(base block)中。此外,本文引入空间视角注意力机制(spatial view attention mechanism)以增强跨视角连贯性,这在驾驶场景中尤为重要。

本文采用rectified flow实现稳定采样,并采用无分类器引导(classifier-free guidance)平衡文本与多种3D几何条件,从而提升可控性。主要训练目标是简化的扩散损失,用于预测每个时间步的噪声分量:

其中 为高斯噪声, 为预测噪声, 为时间步 的带噪潜在变量, 为所有条件信号。为实现精确的实例级控制,本文引入前景掩码损失(Foreground Mask Loss)和LPIPS损失。

最终训练目标为:

在实验中,损失权重通过经验设定为 。值得注意的是,本文训练框架无需昂贵的3D标注,仅依赖RGB视频及其3D感知引导图(可通过现成工具实时生成),大幅降低了训练成本。

三、DriveObj3D资产

为构建用于多样化3D感知视频编辑的大规模3D资产库,本文设计了一套简洁且高效的流程。该流程的核心思路是将资产生成过程分解为三步:(i)2D实例分割;(ii)多视角图像生成;(iii)3D网格生成。如图5所示,该流程以视频或图像以及目标资产类别作为输入,生成用于下游应用的3D网格。

具体流程如下:首先对目标目标进行定位与分割。给定输入图像 和类别标签 ,应用GroundedSAM模型分割出目标目标 。为解决目标目标的遮挡问题,采用Qwen-Image多视角图像生成模型,以 为条件合成一组新视角图像 ;随后将这些图像输入Hunyuan3D多视角重建模型(Hunyuan3D et al., 2025),得到最终的3D网格。

如图6所示,Text-to-3D方法生成的资产往往与原始数据存在风格不一致问题,而单视角方法则容易生成不完整的资产。相比之下,本文提出的简洁流程通过多视角合成生成完整且高保真的资产,即使在严重遮挡情况下也能保持性能。为支持大规模下游驾驶任务,本文构建了多样化的资产数据集DriveObj3D,涵盖驾驶场景中的各类典型类别(如图7所示)。所有资产将公开。

实验结果分析

主要实验结果

下游任务有效性: 本文将Dream4Drive与现有驾驶世界模型在下游任务上的性能进行对比,检测与跟踪结果分别如表1和表2所示。尽管Panacea与SubjectDrive在“2x训练轮次”设置下性能优于纯真实数据基准,但当统一训练轮次后,其相比纯真实数据的性能增益微乎其微。

相比之下,本文方法通过在指定3D位置对目标进行显式编辑,并利用3D感知引导图指导前景-背景合成,生成标注精确的视频,可持续提升下游感知模型性能。值得注意的是,仅使用420个插入样本(不足真实样本的2%),本文方法的性能便超过了使用完整合成数据集的现有方法;更重要的是,本文首次实现了“训练轮次相同时,合成数据辅助训练的性能超越纯真实数据训练”的突破。

**不同分辨率下的有效性:

随着生成模型的发展,合成高分辨率视频已成为可能。为探究高分辨率合成数据对下游感知模型的影响,本文进一步在512×768分辨率下开展检测与跟踪实验,结果分别如表3和表4所示。

在1倍与2倍轮次设置下,真实数据与Dream4Drive的高分辨率(512×768)实验结果均显著优于低分辨率(256×512,见表1、表2)结果。值得注意的是,通过高分辨率合成数据增强,Dream4Drive仅需420个样本即可实现mAP提升4.6个百分点(12.7%)、NDS提升4.1个百分点(8.6%)。性能增益主要来自大型车辆类别(如公交车、工程车辆、卡车),各类别的详细AP值详见附录B。

与现有数据增强范式不同,无论训练轮次多少,Dream4Drive的性能始终优于纯真实数据训练,这充分证明了高质量合成数据的价值。

与朴素插入方法的定量与定性对比

提取3D资产后,可通过直接投影生成编辑视频。为评估“3D感知视频渲染”与“直接插入”对下游任务的影响,本文开展了全面对比实验,结果如表3和表4所示。尽管“直接插入”的性能优于纯真实数据,但由于缺乏阴影、反射等真实感细节,其性能仍低于本文生成式方法。有趣的是,“直接插入”的mAOE指标最高,这可能是因为插入资产与原始边界框朝向完全对齐所致。

图8展示了不同场景下“朴素插入”与本文生成式方法的视觉效果对比,可见Dream4Drive生成的编辑视频真实感更优。

消融实验

插入位置的影响: Dream4Drive可通过在场景中任意位置投影3D资产实现视频编辑。为系统评估插入位置对下游模型性能的影响,本文将插入位置分为“前方(Front)、后方(Back)、左侧(Left)、右侧(Right)”四类,结果如表5所示。

实验结果表明:

  • 在前/后方插入资产的性能相近;

  • 左侧插入的性能优于右侧插入,具体表现为mAP提升0.4个百分点、NDS提升0.9个百分点、mAOE降低5.7个百分点。

这一现象可能源于数据集偏差:nuScenes数据集中多数车辆出现在自车左侧,因此增强这类极端场景可提升模型预测性能,而右侧极端场景对验证集性能的增益有限。

本文还在表5中分析了插入距离对性能的影响:近距离插入的性能往往较差,这可能是因为资产遮挡了相机视野,干扰了其他实例的训练;远距离插入的增强效果更优——由于检测器对远距离目标的检测能力通常较弱,增加远距离目标样本可显著提升检测性能。

3D资产来源的影响: 与现有研究(Ljungbergh et al., 2025)一致,本文发现插入资产的来源会影响合成数据质量,因此进一步探究了不同资产来源对下游感知性能的影响。

如表5所示:

  • Trellis虽能生成高质量资产,但其风格与自动驾驶场景不完全匹配,插入后易产生伪影并导致质量下降,对下游任务产生负面影响;

  • Hunyuan3D的单视角生成性能低于本文多视角方法——单视角生成的资产可能存在完整性问题,而本文方法可生成完整、高质量的3D资产。

实验结论

本文总结了合成数据增强感知模型的核心实验发现:

  1. 复制原始场景布局生成合成数据无法提升性能;通过插入新3D资产增强场景才是有效的数据增强策略;

  2. 高分辨率合成数据对数据增强的增益更显著;

  3. 插入资产的位置会影响增强效果,这揭示了数据集中存在的偏差;

  4. 远距离插入通常能提升性能,而近距离插入可能因严重遮挡阻碍模型训练;

  5. 使用与数据集风格一致的资产可缩小合成数据与真实数据的Domain Gap,更有利于下游模型训练。

结论

本文发现,现有自动驾驶世界模型对“合成数据用于下游任务的有效性”评估存在偏差。为解决这一问题,本文提出Dream4Drive——一种3D感知合成数据生成流程,可合成高质量多视角极端场景(corner cases)。

为助力未来研究,本文还构建了大规模3D资产数据集DriveObj3D,涵盖驾驶场景中的典型类别。大量实验表明,仅添加不足2%的合成数据,Dream4Drive即可持续提升下游感知任务性能,充分验证了合成数据对自动驾驶的实用价值。

自动驾驶之心

论文辅导来啦

自驾交流群来啦!

自动驾驶之心创建了近百个技术交流群,涉及大模型、VLA、端到端、数据闭环、自动标注、BEV、Occupancy、多模态融合感知、传感器标定、3DGS、世界模型、在线地图、轨迹预测、规划控制等方向!欢迎添加小助理微信邀请进群。

知识星球交流社区

近4000人的交流社区,近300+自动驾驶公司与科研结构加入!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知(大模型、端到端自动驾驶、世界模型、仿真闭环、3D检测、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、大模型,更有行业动态和岗位发布!欢迎加入。

独家专业课程


端到端自动驾驶大模型、VLA、仿真测试、自动驾驶C++、BEV感知、BEV模型部署、BEV目标跟踪、毫米波雷达视觉融合、多传感器标定、多传感器融合、多模态3D目标检测、车道线检测、轨迹预测、在线高精地图、世界模型、点云3D目标检测、目标跟踪、Occupancy、CUDA与TensorRT模型部署、大模型与自动驾驶、NeRF、语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频

学习官网:www.zdjszx.com

内容概要:本文围绕“基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究”展开,提出了一种结合Koopman算子理论与递归神经网络(RNN)的数据驱动建模方法,旨在对非线性纳米定位系统进行有效线性化建模,并实现高精度的模型预测控制(MPC)。该方法利用Koopman算子将非线性系统映射到高维线性空间,通过递归神经网络学习系统的动态演化规律,构建可解释性强、计算效率高的线性化模型,进而提升预测控制在复杂不确定性环境下的鲁棒性与跟踪精度。文中给出了完整的Matlab代码实现,涵盖数据预处理、网络训练、模型验证与MPC控制器设计等环节,具有较强的基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)可复现性和工程应用价值。; 适合人群:具备一定控制理论基础和Matlab编程能力的研究生、科研人员及自动化、精密仪器、机器人等方向的工程技术人员。; 使用场景及目标:①解决高精度纳米定位系统中非线性动态响应带来的控制难题;②实现复杂机电系统的数据驱动建模与预测控制一体化设计;③为非线性系统控制提供一种可替代传统机理建模的有效工具。; 阅读建议:建议结合提供的Matlab代码逐模块分析实现流程,重点关注Koopman观测矩阵构造、RNN网络结构设计与MPC控制器耦合机制,同时可通过替换实际系统数据进行迁移验证,深化对数据驱动控制方法的理解与应用能力。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值