Text-to-3D!建筑学小哥自称编程菜鸟,攒了个AI作画三维版,还是彩色的

衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

AI画师,技术又精进了——

直接一句话/一张图,生成3D模型、环绕视频、NeRF实例那种。

还是带颜色的。

输入“一幅美丽的花树画,作者Chiho Aoshima,长镜头,超现实主义”,就能瞬间得到一个长这样的花树视频,时长13秒。

3ec4c4430c9a25749e7fa467b68a2865.gif

这个文本/图片-3D生成AI,叫Dreamfields-3D,来自一个自称编程菜鸟的建筑学在读博士。

Demo刚被小哥放在微博、推特等平台,许多网友已经急着蹲内测了:

d78d2122dba16b519e7bf12281c0292f.jpeg

现在,小哥已经将它开源,colab上也能运行。

一起来上手玩玩看~

AI作画3D版在线玩

Dreamfields-3D玩法十分低门槛,大致只需要三步。这里介绍一下colab上在线玩的步骤。

首先,检查一下GPU,再安装个谷歌驱动器。

fb09a8bc8454a1edeebef755a266a3d0.png

第二步,调出工具开始运行,并安装依赖项。

883d28690829ee208c0c4aab3e5ef145.png

然后定义一些必要的功能,就可以在colab上训练和测试了~

684d6a02f3d040fb2b733d3d91372b40.jpeg

玩的时候需要输入一些参数,保存格式有视频网格两种,输出模型格式为带顶点色的obj和ply。

d06d39f35f22075229820833f743ab03.png

万事俱备,让我们现在开始。

试试输入“一个赛博朋克风格的飞行霓虹灯汽车,格雷格鲁特科夫斯基和西蒙斯大林风格,长镜头,CG社会,虚幻的引擎,史诗游戏”?

会得到一个果然很赛博的汽车的视频。

bac011824b39dc36b99ee62c22735375.gif

如果你是《千与千寻》重度爱好者,想搞张吉卜力风格的视频玩玩。

没问题,prompt输入“一张美丽的天空城市的插图,吉卜力工作室,艺术站,8k HD,CG社会”,这不就来了——

4a40b287f655d3ff371b783467a8e9d3.gif

有网友迫不及待上手,做出了个小计算机。

19ffe72d69cf6f2c2ac4eeb70410513a.jpeg

当然在鹅妹子嘤的惊叹中,也有网友表达了希望Dreamfields-3D更好的期许。

76d42a8b618ade36cc696f16327f6632.jpeg

当然,除了文本输入,Dreamfield3D是支持图片作为prompt的。

不过现在版本还有待完善,如果输入图片,会造成过拟合,简单说就是如果喂它一张车的正面图,生成的3D视频中,那辆车可能4个面都是正面……

想要玩儿图片输入的友友们,怕是要再等等了。

基于现状,小哥在GitHub表达了未来的改进目标:

  • 同时使用不同的CLIP模型。

  • 仅在指定方向应用图像提示。未来可能要加一个图片角度的约束,例如只有在输入图片相同角度时,输出才参考该图片。

  • 作为NeRF实例读取现有网格,然后通过文本/图像prompt进行修改。

  • 在训练中减少GPU RAM的使用。

(但小哥说了,自己是个编程菜鸟,后续可不保证哦)doge

基于谷歌Dreamfields-Torch

小哥是建筑学出身,据他讲,Dreamfield3D是他从创作者角度出发,对Dreamfield-Torch做了些优化,主要的代码工作还是来自上游的Dreamfields-Torch和Dreamfields。

介绍下,Dreamfields来自谷歌,它的特点是无需照片样本,简简单单一句话,就能生成3D图像,还可以生成多种物品组合成的复合结构。

55b38085227867e99c12a7ca740daa4f.gif

在生成3D场景时,通常会选用神经辐射场(NeRF)参数方案。

NeRF的特点是可分别渲染场景,但需要很多张3D照片,才能实现360°视觉重建。

相比之下,Dreamfields生成3D模型不需要照片,因为它基于NeRF 3D场景技术、OpenAI文本生成模型DALL·E以及CLIP的3D生成系统开发,通过神经网络来储存3D模型。

DALL·E和CLIP同样师出谷歌,前者通过文本生成图像,后者通过文本分类图片。用CLIP来分类DALL·E生成的图像,可以提升图像生成的准确性。

Dreamfields-Torch则是一个经过修改的Dreamfields的Pytorch实现,主要是把原Dreamfields的后端,从原始NeRR换成了instant-ngp。

以此为基础,小哥做出的Dreamfields-3D基本上靠CLIP + NERF运作。

17166a11ed62234e215f55a0c48cd010.png

作者简介

作者蒙胜宇(Simon Meng),奥地利因斯布鲁克大学(UIBK)建筑学在读博士。

硕士毕业于伦敦大学学院(UCL)建筑学,现为UIBK及UCL技术课程助教及特邀评图嘉宾,从事建筑设计、艺术、AI及生物学跨领域研究。

4ffc03e1ffdaee27f0c0f8862f545e53.png

小哥从去年6、7月份开始关注AI图像生成。

他发现,很多破圈技术,如clip guide diffusion,disco diffusion,都是一些懂代码的跨界者做的。

去年年末谷歌发布Dreamfields,他就动了用它做3D输出的心思。

于是,在拿到动画后,他用AI做了超采样放大和插帧,然后导出帧到普通的多目重建软件(类似colmap),成功重建mesh(一个用3D模型数据还原的模型图)。

e58e45ed8959ed675d33ad038f9f166f.png

小哥把mesh发在推特上,结果Dreamfields论文的原作者Ajay Jain联系到他,表示了欢迎,还鼓励他保持优化更新——虽然那时候他用的是普通航拍实景重建软件,不是编程方法。

上个月,小哥在Dreamfield-Torch的基础上做了colab版,本月在GitHub开源,让大家能够愉快地玩耍。

以及,现在这个已经是基于Marching cubes的船新版本啦~

GitHub地址:
https://github.com/shengyu-meng/dreamfields-3D
colab地址:
https://colab.research.google.com/drive/1u5-zA330gbNGKVfXMW5e3cmllbfafNNB?usp=sharing#scrollTo=_VDLFG_gUEKa

参考链接:
[1]https://weibo.com/1948301550/M4o6m3vGn?type=comment#_rnd1663119855180
[2]https://twitter.com/meng_shengyu
[3]https://github.com/ashawkey/dreamfields-torch

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值