>>直播和内容获取转到→自动驾驶之心知识星球
复旦大学ICCV 2025中稿的最新工作!自动驾驶场景的真实重建对于开发闭环仿真至关重要。大多数现有方法依赖于目标的位姿标注,使用这些位姿来重建动态目标并在渲染过程中实现动态重建。这种对高精度目标标注的依赖限制了大规模和广泛场景的重建。为了解决这一挑战,复旦大学的团队提出了Bezier curve Gaussian splatting(BezierGS),该方法使用可学习的贝塞尔曲线表示动态目标的运动轨迹。这种方法充分利用了动态目标的时间信息,并通过可学习的曲线建模自动校准位姿误差。通过引入对动态目标渲染的额外监督和曲线间一致性约束,实现了合理且准确的场景元素分离和重建。在Waymo开放数据集和nuPlan基准上的大量实验表明,BezierGS在动态和静态场景目标重建以及新视角重建方面均优于最先进的替代方法。
总结来说,这篇文章的亮点以及未来可扩展方向如下:
构建一个高质量街景世界,供自驾模型在其中训练、探索,减少数据采集的成本;
减少对bounding box精确性的依赖,目前业界以及开源自驾数据集采集的准确性不是很高,bounding box的标注不精确;
这篇是对自驾世界的学习与探索,未来会探索一个真正的自驾世界模型,该工作只能实现轨迹内插,无法轨迹外插。
论文链接:https://arxiv.org/abs/2506.22099
代码代码:https://github.com/fudan-zvg/BezierGS
今天自动驾驶之心很荣幸邀请到BezierGS工作的一作马梓培,为大家分享这篇ICCV'25中稿的新工作!今晚七点半,自动驾驶之心直播间不见不散~

