标题:GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields
链接:https://arxiv.org/pdf/2011.12100
NeRF中,我们是使用一个辐射场来模拟一个现实场景,虽然相机可以任意改变位置,但是场景里的东西是固定不能动的,因为一个辐射场就是一个整体。而本文则是通过将多个辐射场组合,从而使得任一辐射场都可以在场景内任意移动。当然,本文将辐射场radiance field称之为feature field。
文章组成:
1.首先整体流程就是用的GRAF那一套,因此包含了一个生成器和一个鉴别器,只不过生成器内部有所区别。一方面GIRAFFE里有多个辐射场,另一方面是在渲染方面进行了一点改变。
2.首先,因为有多个辐射场,因此其中的每个辐射场都有自己的一套网络,对应着不同的位姿,形状和纹理参数。
3.其次就是如何组合多个辐射场,方法很简单,就是沿着光线,按照每个物体的密度把颜色做个求和就完事了。
4.最后就是如何渲染,GRAF是直接用体渲染就完事了,但本文在体渲染后面又加了个神经渲染,估计是为了提升画质把,就相当于把画面精炼了一遍。值得一提的是,本文的体渲染的结果并不是通常意义上的图,而是一个特征图,因为它输出的不是颜色,而是一个特征数值。个人认为,之所以这样是因为后面还有个神经渲染器,所以就保留一部分表达能力了。
5.最后的判别器和GRAF中的一样,就是一个单纯判别输出图像是真的还是合成的网络。