基于3DGS和Diffusion的自动驾驶闭环仿真论文总结

作者 | 天然不冻港 编辑 | 自动驾驶之心

 原文链接:https://zhuanlan.zhihu.com/p/1925525419739834361

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近15个方向学习路线

>>自动驾驶前沿信息获取自动驾驶之心知识星球

本文只做学术分享,如有侵权,联系删文

浅读了近期来自cvpr2025的一些工作,浅显总结一下:

自动驾驶仿真器 = 场景渲染 + 场景外推 + 3D资产重建 + Relighting + 智能体 + 天气 + 其他狠活

HUGSIM HUGSIM: A Real-Time, Photo-Realistic and Closed-Loop Simulator for Autonomous Driving

https://doi.org/10.48550/arXiv.2412.01718

第一步:搭个静态环境(建模篇)

  • 用 3D Gaussian Splatting3DGS) 和 Diffusion Model 打造一个逼真的城市,细节到连路边的奶茶杯都看得清清楚楚

OmniRe https://arxiv.org/abs/2408.16760
Street Gaussians https://arxiv.org/pdf/2401.01339
ReconDreamer https://arxiv.org/abs/2411.19548
StreetCrafter https://arxiv.org/abs/2412.13188

第二步:环视采集数据,搞点动态资产(素材收集篇)

  • 从环视采集数据中抠出汽车、行人、猫猫狗狗……甚至还有突然跳出来的广场舞阿姨

MADrive https://arxiv.org/abs/2506.21520
3DRealCar https://arxiv.org/pdf/2406.04875

第三步:重打光(Relighting)让它们更自然(视觉润色篇)

  • 为了让这些资产看起来不是P上去的,还得给它们重新打光。不然就像AI换脸一样,一眼假。

  • 模拟清晨、黄昏、夜晚、暴雨天、反光强光等复杂光照条件,确保每一根毛发都闪闪发光

R3D2 https://arxiv.org/pdf/2506.07826
DiPIR https://arxiv.org/abs/2408.09702

第四步:智能体登场(Behavior篇)

  • 每个资产都是一个智能体,有自己的大脑和脾气比如,甚至可以操作其他智能体:

    • 汽车可以“变道不打灯,打灯变三道”,完美复刻现实中的老司机操作

    • 行人可以“马路中间拍照发朋友圈

    • 高速电子指示牌可以显示“高速路况复杂,慎用辅助驾驶

BehaviorGPT https://arxiv.org/abs/2405.17372
SMART https://arxiv.org/pdf/2405.15677
DFTO-FW https://arxiv.org/abs/2412.01468

第五步:天气系统上线(氛围感拉满)

  • 想下雨就下雨,想下冰雹就下冰雹,想下彩虹雨也没问题。

  • 雨刮器动不动就罢工,摄像头一沾水就模糊,仿佛在说:“老子不想干了!”

  • 雾霾天能让激光雷达“看不清远方”,雪天能让摄像头“白茫茫一片真干净”。

Weather-Magician https://arxiv.org/abs/2505.19919
RainyGS https://arxiv.org/abs/2503.21442

第六步:其他狠活(黑科技彩蛋)

开启“地狱副本”,让一辆自动驾驶车面对“外卖小哥+快递电瓶车+遛狗大妈+抛洒钉子的神秘男子”组成的终极BOSS组合。

自动驾驶之心

论文辅导来啦

知识星球交流社区

近4000人的交流社区,近300+自动驾驶公司与科研结构加入!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知(大模型、端到端自动驾驶、世界模型、仿真闭环、3D检测、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、大模型,更有行业动态和岗位发布!欢迎加入。

独家专业课程

端到端自动驾驶大模型、VLA、仿真测试、自动驾驶C++、BEV感知、BEV模型部署、BEV目标跟踪、毫米波雷达视觉融合、多传感器标定、多传感器融合、多模态3D目标检测、车道线检测、轨迹预测、在线高精地图、世界模型、点云3D目标检测、目标跟踪、Occupancy、CUDA与TensorRT模型部署、大模型与自动驾驶、NeRF、语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频

学习官网:www.zdjszx.com

### 3DGS技术在自动驾驶中的实现方案 #### 高效的三维场景重建 3D高斯点阵渲染(3DGS)是一种高效的三维场景重建技术,其核心在于通过优化计算资源分配提升复杂场景下的建模效率精度[^1]。该技术利用高斯分布模型表示空间中的每一个点云数据,从而显著减少传统几何建模所需的存储开销。 #### 动态环境模拟 为了满足自动驾驶仿真对动态环境的需求,3DGS不仅支持静态物体的精确重建,还能够实时捕捉并呈现移动对象的行为特征。这使得基于仿真的测试更加贴近实际道路状况,有助于提高算法训练的质量[^2]。 #### 数据驱动的方法论 不同于依赖人工设计的传统方式,现代神经网络架构如NeRF (Neural Radiance Fields),以及改进版的3DGS框架采用端到端的数据驱动策略来进行自动化生成逼真图像序列的过程。这种方法极大地缩短了开发周期,并降低了成本投入的同时也增强了系统的适应能力面对不同类型的输入源文件格式转换等问题提供了灵活解决方案。 ```python import numpy as np from scipy.stats import multivariate_normal def generate_gaussian_point(x, y, z, sigma=0.5): """ Generate a Gaussian point cloud centered at (x,y,z). Args: x (float): X-coordinate of the center. y (float): Y-coordinate of the center. z (float): Z-coordinate of the center. sigma (float): Standard deviation for the Gaussian distribution. Returns: ndarray: A set of points sampled from the specified Gaussian distribution. """ mean = [x, y, z] cov = [[sigma ** 2, 0, 0], [0, sigma ** 2, 0], [0, 0, sigma ** 2]] v = multivariate_normal(mean, cov).rvs(1000) return v # Example usage points = generate_gaussian_point(0, 0, 0) print(points[:5]) ``` 上述代码片段展示了如何创建一个简单的三维高斯分布点集,这是构成更复杂的3DGS结构的基础单元之一。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值