靠网上晒的景点照就能还原3D建模,浙大团队这是要带我们云旅游?|SIGGRAPH 2022...

梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

以NeRF为代表的神经渲染技术高速发展,学界已经不满足合成几个新视角让照片动起来了。

接下来要挑战的是根据照片直接输出3D模型,可以直接导入到电影、游戏和VR等图形生产线里的那种。

08c1361b35aa8f6cda185d13dd1957c9.png

所用照片不是出自高质量数据库,就是直接从网上搜集游客拍摄的各大景点,设备、天气、距离角度等都会不一致。

生成的结果远看结构完整,近看细节丰富,如果你有VR设备也可以在Demo中直接预览3D版。

a73330ae88596951e38f0add75416014.png

这项最新突破由浙江大学和康奈尔大学团队合作完成,登上图形学顶会SIGGRAPH 2022

d32a15e51854c3b8d754ec8e7c4ef7f0.png

而在这之前,同类技术生成的3D模型连形状完整都做不到。

b5ce0361c0616dbd08fa58b216e84c25.gif

看到这里,网友纷纷表示这个领域的进展比人们想象的要快。

a7c2d2940068ea4a439248893bced53f.png

“慢点学,等等我”。

4439bc2ba8c4284b69ec1e2754e8a24f.png

那么,这项研究靠什么取得了突破?

融合两种采样方式

具体来说,这项研究的基本框架借鉴了NeurIPS 2021上的NeuS,一种把隐式神经标准和体积渲染结合起来的方法。

a906d56aef236260f3d4d2daaa2460c8.png

但是NeuS使用基于球体的采样(Sphere-based sampling)方法,对于近景、小物体来说还算适合。

用于结构复杂的大型建筑物的话会有大量采样点采在空白区域,增加大量不必要的计算压力。

ed752b0f1dcde39df12d1f8479e5a522.png

为解决这个问题,研究人员提出体素引导(Voxel-guided)和表面引导(Surface-guided)混合的新采样方法。

b334478c6d2d5bf6f118146a687379bd.png

体素引导可以避免不必要的浪费,训练时所需射线(Traning ray)可以减少30%

再结合表面引导增加真实曲面周围的采样密度,帮助神经网络更好拟合,避免丢失细节。

在消融实验中可以看到,仅使用体素引导方法收敛的比基于球体的方法快,但不如混合方法细节丰富。

ab9e57bfa315c5a85380e6710b694f6d.png

与之前同类研究对比,新方法生成模型的完整性和细节方面更出色。

a8e78aa54e89010f74d4c5925277ce9d.png

训练速度上也有明显优势,特别是在大型场景墨西哥城美术宫(PBA)。

6d47eeec15884fb545d862ef4909a3b4.png

Ours为完全收敛结果,带小人图标的是训练过程中一个检查点

当然,新方法也不是完全没有缺点。

一个继承自NeRF的局限性是,如果相机位置校准有偏差会影响最终结果。

还有一个难以解决的问题,就是照片拍不到的建筑物背面和内部就无法精确重建了。

e77b54205790cf9c061deda69983dcad.gif

One More Thing

最后再补充一点,浙大团队中一些成员,之前还研究了神经3D人体重建。

176af9c8c4a4116b2bbba61f0af03b59.png

e01fc160b99894d8a3dbf4c597e413ea.png

可应用于为体育比赛提供自由视角的视频重放。

b15c350ed81904b53d257bd13510eff3.gif

也是666了。

论文地址:
https://arxiv.org/abs/2205.12955

GitHub仓库:
https://zju3dv.github.io/neuralrecon-w/

参考链接:
[1]https://zju3dv.github.io/neuralbody/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值