CVPR‘24开源 | 通过3D GS进行整体城市3D场景理解!

本文提出HUGS方法,通过3D高斯喷涂技术实现基于RGB图像的城市3D场景理解,包括几何、外观、语义和动态物体的实时理解和新视图合成。该方法在没有3D边界框输入的情况下,能处理嘈杂的2D和3D预测,适用于自动驾驶等应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

76af16facd6321e93f43b212669bf6dc.jpeg

0. 这篇文章干了啥?

在自动驾驶中,全面地表示与驾驶相关的场景的所有方面变得至关重要,包括在实时插值和外推视点处合成图像、重建2D和3D语义、生成深度信息和跟踪动态对象等任务。为了最小化传感器成本,从RGB图像中实现这样的全面理解具有重要价值。

这篇文章利用预测的2D语义标签、光流和3D轨迹,实现基于RGB图像实现对动态场景的全面理解。为实现这一目标,作者使用分解场景表示在3D空间推断几何、外观、语义和运动。作者将3D高斯函数用作场景表示,这些函数最近在具有实时渲染能力的静态场景上展示了优越的新视图合成性能。具体来说,作者建议将场景分解为静态区域和刚性移动的动态对象。对这些移动对象的姿态进行建模,同时遵循单轮车模型的物理约束,有效地减少了跟踪过程中的噪声影响,并且相对于单独优化对象姿态,表现更为出色。能够重建动态场景,即使3D边界框预测非常嘈杂。此外,将3D高斯光栅化扩展到模拟相机曝光,并在动态场景中探索初始化,从而实现了在城市场景上的最先进的新视图合成性能。此外,将语义信息整合到3D高斯函数中,实现语义地图的渲染和3D语义点云的提取。最后,将RGB、语义和光流结合起来,共同监督模型训练,并调查这些图像线索之间的交互,以提高场景理解任务的性能。

下面一起来阅读一下这项工作~

1. 论文信

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

3D视觉工坊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值