点击下方卡片,关注“自动驾驶之心”公众号
>>直播和内容获取转到 → 自动驾驶之心知识星球
点击按钮预约直播
近年来,3DGS在自动驾驶领域的城市场景重建中展现出巨大潜力。然而,当前的城市场景重建方法通常依赖于多模态传感器输入,例如激光雷达和图像。尽管激光雷达点云提供的几何先验在很大程度上可以缓解重建中的不适定性,但在实践中获取如此精确的激光雷达数据仍然具有挑战性:
i)需要对激光雷达与其他传感器之间进行精确的时空标定,因为它们可能并非同时捕获数据;ii)当激光雷达和相机安装在不同位置时,空间未对准会导致重投影误差。为了避免获取精确激光雷达深度的困难,本文提出了 D²GS,一种无需激光雷达的城市场景重建框架。在这项工作中,获得了与激光雷达效果相当,但更密集、更精确的几何先验。本次自动驾驶之心为大家邀请到D²GS作者 博世创新软件中心,三维重建算法专家张友健为大家详细分析本篇工作。
论文标题:D2GS: Dense Depth Regularization for LiDAR-free Urban Scene Reconstruction
论文链接:https://arxiv.org/abs/2510.25173
分享介绍

更多精彩回顾
🚀 直播精华看不够?完整版深度内容已独家上线知识星球「自动驾驶之心」!涵盖所有技术细节、QA及未公开彩蛋。深度解析!
FSD v14里面藏了VLA吗?谁在定义自动驾驶下一代方案:VLA vs WA的一场深入探讨......学术和量产的分歧,技术路线的持续较量!从技术掌舵人的角度一览智驾的十年路....
干货满满,快来加入

END
17万+

被折叠的 条评论
为什么被折叠?



