今日CS.CV 计算机视觉论文速览
Wed, 22 May 2019
Totally 39 papers
?上期速览✈更多精彩请移步主页
Interesting:
?全人体的渲染模型, 估计模型表面精确的材质信息,生成新视角和新动作的人体图像。(from 三星 斯科尔科夫Skolkovo理工)
模型框架:
数据集:http://www.cs.cmu.edu/~hanbyulj/panoptic-studio/ICCV2015_SMC.pdf https://www.cs.cmu.edu/~hanbyulj/panoptic-studio/
code:https://saic-violet.github.io/texturedavatar/
?GAPNet基于图注意力的点神经网络用于局域特征探索, 非欧空间中探索点云的语义特征充满挑战,局域特征用于上下文理解和注意力机制目前还没有深入研究。这篇论文中研究人员将多层感知机实现的嵌入图注意力机制来学习局域特征。GAP(Graph Attention Point)层用于学习每个点的注意力特征,随后利用多头机制探索特征,最后利用注意力池化层来捕捉重要信号。在ModleNet40和ShapeNet上取得了很好的语义分割结果。(from Cranfield University克兰菲尔德大学 英国)
GAP层:
GAP模型架构:
结果如下图所示:
?VOICED,基于视觉惯性里程计的深度补偿,提出了一种利用视觉里程计的稀疏深度图和相机位置估计深度的方法。首先构建平面架构来推断稠密深度。 (from UCLA Vision Lab)
?SharpNet基于单目深度估计的快速遮挡轮廓恢复, 提出了一种单图像深度估计的有效算法,并聚焦于遮挡轮廓的重建。(from Université de Bordeaux波尔多)
结果:
室内渲染数据集:dataset:http://openaccess.thecvf.com/content_cvpr_2017/papers/Zhang_Physically-Based_Rendering_for_CVPR_2017_paper.pdf,
渲染流程:https://github.com/yindaz/pbrs https://www.pbrt.org/ 引擎mitsuba,文档
室内三维家装建模:https://planner5d.com/
室外合成数据集:SYNTHIA
?基于平面测地线近似的球面卷积图像分割, (from 北卡 教堂山)
Daily Computer Vision Papers
Textured Neural Avatars Authors Aliaksandra Shysheya Samsung AI Center, Skolkovo Institute of Science and Technology , Egor Zakharov Samsung AI Center, Skolkovo Institute of Science and Technology , Kara Ali Aliev Samsung AI Center , Renat Bashirov Samsung AI Center , Egor Burkov Samsung AI Center, Skolkovo Institute of Science and Technology , Karim Iskakov Samsung AI Center , Aleksei Ivakhnenko Samsung AI Center , Yury Malkov Samsung AI Center , Igor Pasechnik Samsung AI Center , Dmitry Ulyanov Samsung AI Center, Skolkovo Institute of Science and Technology , Alexander Vakhitov Samsung AI Center, Skolkovo Institute of Science and Technology , Victor Lempitsky Samsung AI Center, Skolkovo Institute of Science and Technology 我们提出了一种用于学习全身神经化身的系统,即深度网络,其产生用于改变身体姿势和摄像机位置的人的全身渲染。我们的系统采用经典图形管道和最近的深度学习方法之间的中间路径,这些方法使用图像到图像转换生成人类图像。特别地,我们的系统估计模型表面的显式二维纹理图。同时,它避免了3D中的显式形状建模。相反,在测试时,系统使用完全卷积网络直接映射身体特征点的配置w.r.t.相机到图像帧中各个像素的2D纹理坐标。我们表明,这样的系统能够学习生成逼真的渲染,同时在用3D姿势和前景蒙版注释的视频上进行训练。我们还证明,与使用直接图像到图像转换的系统相比,维护显式纹理表示有助于我们的系统实现更好的泛化。 |
Toward Learning a Unified Many-to-Many Mapping for Diverse Image Translation Authors Wenju Xu, Shawn Keshmiri, Guanghui Wang 图像到图像的翻译,通过学习的一对一映射将输入图像转换到不同的域,近年来取得了令人瞩目的成功。翻译的成功主要依靠网络架构来保留结构信息,同时通过对抗训练在像素级略微修改外观。虽然这些网络能够学习映射,但是翻译的图像是可预测的而不排除。更期望通过引入不确定性使用图像到图像转换来使它们多样化,即,除了与输入图像的一般相似性之外,所生成的图像保持颜色和纹理变化的可能性,并且这发生在目标域和源域中。 。为此,我们提出了一种新颖的基于生成对抗网络GAN的模型,注入导入,以学习多对多的映射。在该模型中,输入图像与潜在变量组合,潜在变量包括域特定属性和非特定随机变量。域特定属性指示翻译的目标域,而非特定随机变化将不确定性引入模型。提出了一个统一的框架来重新组合这两个部分,并在每个领域获得不同的世代。大量实验表明,对于具有挑战性的图像到图像转换任务而言,不同世代具有高质量,其中没有训练数据集的配对信息退出。定量和定性结果均证明了InjectionGAN优于现有技术方法的优越性能。 |
RIU-Net: Embarrassingly simple semantic segmentation of 3D LiDAR point cloud Authors Pierre Biasutti, Aur lie Bugeau, Jean Fran ois Aujol, Mathieu Br dif 本文提出了RIU Net for Range Image U Net |