模糊图像重建重大进展!DeblurGS:相机位姿不准也能极致渲染!

文章介绍了一种名为DeblurGS的方法,能从运动模糊图像中恢复清晰的3D场景,特别在处理噪声初始相机位姿时表现出色。它利用3DGS的重建能力,结合高斯密集退火策略优化相机运动,实现在去模糊和实时渲染方面的先进性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

添加小助理微信AIDriver004,加入近30+自动驾驶技术方向交流群!更多行业咨询与技术分享,欢迎加入『自动驾驶之心知识星球』,国内最大的自动驾驶技术交流社区,你想要的这里都有。

论文作者 | 3D视觉之心

编辑 | 自动驾驶之心

写在前面&笔者的个人理解

尽管在从运动模糊图像中重建清晰的3D场景方面取得了重大进展,但向现实世界应用的过渡仍然具有挑战性。主要障碍源于严重的模糊,这导致通过“Structure-from-Motion”获取初始相机位姿的不准确,这是以前的方法经常忽略的一个关键方面。为了应对这一挑战,我们提出了DeblurGS,这是一种从运动模糊图像中优化清晰的3D GS的方法,即使在有噪声的相机位姿初始化的情况下也是如此。我们通过利用3D GS的卓越重建能力来恢复细粒度的清晰场景。DeblurGS估计每个模糊观测的6自由度相机运动,并为优化过程合成相应的模糊渲染。此外,我们提出了高斯密集退火策略,以防止在相机运动仍然不精确的早期训练阶段,在错误的位置产生不精确的高斯。综合实验表明,我们的DeblurGS在真实世界和合成基准数据集以及现场捕捉的模糊视频的去模糊和新颖视图合成方面实现了最先进的性能。

总结来说,DeblurGS的主要贡献如下:

  • 我们提出了DeblurGS,这是第一个从运动模糊图像中优化清晰3D场景的3D GS管道。

  • 我们采用高斯密集退火策略来优化输入模糊图像的噪声初始相机位姿。

  • 我们通过对现场拍摄的、快速移动的真实世界视频进行实验,展示了DeblurGS的实用性。

(大拇指往上滑,点击最上方的卡片关注我,整个操作只会花你 1.328 秒,然后带走未来、所有、免费的干货,万一有内容对您有帮助呢~) 也可以加小助手,拉你进讨论群

1a58fbb25e5c7f6c2ab43218b29d3159.jpeg

相关工作回顾

图像去模糊图像去模糊是图像恢复领域的基本任务之一。从模糊输入中恢复清晰图像的传统深度学习方法是CNN或基于变换器的监督学习。然而,这些方法需要大量的训练数据与清晰的地面实况图像配对,并且去模糊的质量取决于数据的规模。此外,由于领域差距问题,这些方法往往难以在不同条件下进行泛化,这使得它们在不同的现实世界场景中的性能不一致。相比之下,我们的DeblurGS框架偏离了传统的数据驱动范式,消除了对由大规模数据集训练的预训练网络的需求,并且本质上不受领域差距问题的影响。

NeRF和3D GS:NeRF由于其照片逼真的视图合成结果而在3D视觉领域引起了极大的关注。NeRF的核心策略是利用可微体渲染技术优化神经隐式表示。几种后续方法旨在提高渲染质量,而该研究的其他分支致力于减轻NeRF框架耗时的训练和渲染速度],将渲染速度提高几个数量级。最近,3DGS增强了辐射场模型的变体,并实现了详细的重建性能和实时渲染速度。通过用高效且具有确定性的光栅化取代NeRF的光线行进,3DGS在不损失视觉质量的情况下实现了实时渲染。我们的DeblurGS还建立在3DGS管道上,用于从模糊的观察中恢复潜在清晰场景的细粒度模式,并执行重建场景的实时渲染。

模糊的3D重建:最近,基于NeRF的去模糊方法试图从模糊的多视图图像中重建清晰的3D场景。基于NeRF的方法将每个图像的模糊操作与解释所有模糊输入的清晰3D场景联合优化。DeblurNeRF和DP-NeRF采用2D逐像素模糊核估计器,BADNeRF和ExBluRF直接估计每个输入图像的相机轨迹。尽管有令人印象深刻的新颖视图合成和去模糊性能,但基于NeRF的方法仍面临着从不准确的初始姿态优化场景的挑战,这是一个自然的假设,考虑到如果给出模糊视图,SfM管道会估计错误的相机位姿。我们的DeblurGS通过采用高斯密集退火策略,从错误姿势中恢复清晰的3D场景。

DeblurGS简介

992ab93f563d6ea4ee122ef7e7c80376.png

我们介绍了DeblurGS,这是一种从相机运动模糊图像中优化基于清晰高斯飞溅的3D场景的方法。考虑到由于相机运动而模糊的多视图观察,我们的目标是恢复清晰的3D场景。为此,我们采用3DGS作为场景表示,以细粒度细节实现3D场景的真实感恢复,并结合潜在的相机运动对3DGS进行联合优化。我们在第3.1节中简要介绍了3DGS。接下来,我们在第3.2节中介绍了一种模糊视图合成方法,该方法通过估计相机运动并根据近似运动累积子帧渲染。我们在第3.3节中介绍了优化过程,重点介绍了从错误姿态进行优化的高斯密集退火策略。最后,我们在第3.4节中推导了优化的损失项。我们在图2中提供了训练的概述。

Blurry View Synthesis

我们的目标是使用给定的运动模糊输入来优化清晰的高斯飞溅。从物理上讲,相机运动模糊是由相机运动过程中的辐照度积分产生的,如手抖或颤抖。因此,模糊图像的获取由曝光时间内时变6自由度相机位姿的辐照度的积分表示。

49686a15fcef2253deb4be492584fd6b.png

我们估计了解释运动模糊的6自由度相机轨迹,以准确模拟方程(4)中描述的模糊操作。根据ExBluRF,我们用李代数空间se(3)中的Bézier曲线对相机的刚性运动进行参数化。然而,我们发现,即使我们使用Bézier曲线准确估计相机轨迹,由于相机姿态沿轨迹的采样位置不同,模糊图像也不是唯一合成的,如图3所示。因此,我们定义了子帧对齐参数,该参数校准估计轨迹上的每个相机姿势,以与时间t处的潜在相机姿势对齐:

09bf25b1b8e8581513b26cd51d5491c9.png fd5ccac3360ecf446b7024af25503697.png

我们使用等式4应用对准参数的定义来公式化运动模糊图像B:

400c6ab31bfeb8979f640cceb05be327.png a395a90b3db59327ad6f12535b53a1ff.png

Optimization from Inaccurate Poses

高斯密集退火:由于传统的特征匹配算法是对模糊图像中的噪声特征进行的,因此COLMAP获得的初始姿态是错误的。考虑到不准确的初始姿态,相机运动的联合估计会导致在优化的早期阶段在不正确的位置产生高斯。具体而言,如果相对于高斯位置的梯度超过致密化阈值θ,则高斯被一分为二。因此,处于错误位置的高斯试图拟合来自错误位置的训练图像,从而破坏了优化过程。为了防止在不正确的位置产生过早的高斯分裂,我们采用了致密化阈值θ的退火策略。我们从较高的初始θ逐渐退火θ,当相机运动充分优化时,可以实现更精细的致密化。θ的退火策略在场景试图通过致密化来表示精细细节之前,优先考虑相机运动的精确优化,从而减轻高斯在错误位置造成的干扰。

Loss Functions

重建损失:

8d33087c739d5b17472eadcc1eeea242.png

Temporal Smoothness Loss:

bd9df631f7a0f8efd38ad71e8294bb3b.png

整体损失

85bc00049e91667806173eae4f54ef28.png

实验

34d97d53e07102eaa2e0a9cf82ff4398.png 9762940e3fd8cdfd80225205f6ab3268.png 315292c644740b17374e3cc105fc62c4.png fbe028391174fc9a22f8d19a9366b371.png 030fd8200e764de58fe21718676522d7.png 848907de5cf71a2171c84a0ad940e8e3.png

结论

本文提出了DeblurGS,一种从运动模糊图像集合中重建清晰3D场景的方法。我们模拟相机运动以合成模糊视图,并通过最小化给定模糊观察和生成的模糊之间的距离来优化3D高斯散射。通过我们的高斯密集退火策略,相机运动收敛于潜在的相机运动,甚至从嘈杂的相机姿势初始化,这是模糊观测的SfM的自然结果。从不精确的姿势进行优化的能力突出了我们框架的实用性,展示了用智能手机拍摄的视频的成功去模糊。DeblurGS在清晰的3D场景重建任务中优于所有现有方法,在实验和实际环境中都达到了最先进的水平。

参考

[1] DeblurGS: Gaussian Splatting for Camera Motion Blur

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

63447a7a4d458cda52d06eb06fb41119.png 网页端官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

国内最大最专业,近3000人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案大模型、端到端等,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频

92179684f18933d731f09998cbf1c872.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦感知、定位、融合、规控、标定、端到端、仿真、产品经理、自动驾驶开发、自动标注与数据闭环多个方向,目前近60+技术交流群,欢迎加入!

自动驾驶感知:目标检测、语义分割、BEV感知、毫米波雷达视觉融合、激光视觉融合、车道线检测、目标跟踪、Occupancy、深度估计、transformer、大模型、在线地图、点云处理、模型部署、CUDA加速等技术交流群;

多传感器标定:相机在线/离线标定、Lidar-Camera标定、Camera-Radar标定、Camera-IMU标定、多传感器时空同步等技术交流群;

多传感器融合:多传感器后融合技术交流群;

规划控制与预测:规划控制、轨迹预测、避障等技术交流群;

定位建图:视觉SLAM、激光SLAM、多传感器融合SLAM等技术交流群;

三维视觉:三维重建、NeRF、3D Gaussian Splatting技术交流群;

自动驾驶仿真:Carla仿真、Autoware仿真等技术交流群;

自动驾驶开发:自动驾驶开发、ROS等技术交流群;

其它方向:自动标注与数据闭环、产品经理、硬件选型、求职面试、自动驾驶测试等技术交流群;

扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

2602cd2ab10f5ab728b5d291a287eb3b.jpeg

④【自动驾驶之心】硬件专场

3d6f518aac32765d5993a6e16ad7b778.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值