GAN系列最新论文调研
文章目录
- GAN系列最新论文调研
- 前言
- 一、EditGAN:High-Precision Semantic Image Editing
- 二、TransductGAN: a Transductive Adversarial Model for Novelty Detection
- 三、Driving Anomaly Detection Using Conditional Generative Adversarial Network
- 四、SphericGAN: Semi-supervised Hyper-spherical Generative Adversarial Networks for Fine-grained Image Synthesis
- 五、WarpingGAN: Warping Multiple Uniform Priors for Adversarial 3D Point Cloud Generation
- 六、SemanticStyleGAN: Learning Compositional Generative Priors for Controllable Image Synthesis and Editing
- 七、Closed-Form Factorization of Latent Semantics in GANs
- 八、HumanGAN: A Generative Model of Human Images
- 九、Encoding in Style: a StyleGAN Encoder for Image-to-Image Translation
- 十、PD-GAN: Probabilistic Diverse GAN for Image Inpainting
- 总结
前言
本次主要探究GAN应用层面的最新进展 ,包括但不限于风格迁移,图像翻译,特征解耦,语言概念解耦等。
一、EditGAN:High-Precision Semantic Image Editing
NeurIPS 2021 · 基于GAN的高精度语义图像编辑
生成对抗网络(GANs)最近在图像编辑中得到了应用。 然而,大多数基于GAN的图像编辑方法往往需要大规模的带语义分割注释的数据集进行训练,只能提供高层控制,或者仅仅在不同图像之间进行插值。
本文提出了一种新的高质量、高精度的语义图像编辑方法EditGAN,它允许用户通过修改其高度细节的部分分割掩模来编辑图像,例如为汽车前灯绘制一个新的掩模。 EditGAN建立在一个GAN框架上,该框架可以联合建模图像及其语义分割[1,2],只需要少量的标记示例–使其成为一个可伸缩的编辑工具。 具体来说,我们将图像嵌入到GAN的潜在空间中,并根据分割编辑进行条件潜在代码优化,从而有效地修改图像。 为了延缓优化,我们在潜在空间中寻找“编辑向量”来实现编辑。 该框架允许我们学习任意数量的编辑向量,然后这些向量可以以交互速率直接应用于其他图像。 实验表明,EditGAN能够以前所未有的细节和自由度处理图像,同时保持完整的图像质量。我们还可以轻松地组合多个编辑,并在EditGAN的训练数据之外执行似是而非的编辑。

二、TransductGAN: a Transductive Adversarial Model for Novelty Detection
CVPR 2022一种用于新颖性检测的转导对抗模型
新颖性检测是机器学习中一个被广泛研究的问题,它是检测以前没有观察到的一类新数据的问题。 新颖性检测的一个常见设置是归纳的,由此在训练时间内只有否定类的示例可用。 而转导新颖性检测只是最近才出现的,它不仅在训练过程中利用否定类,而且还结合了(未标记的)测试集来检测新颖性样本。 在转导设置伞下出现了几项研究,证明了它比感应设置伞有优势。 根据对数据的假设,这些方法有不同的名称(例如,转导新颖性检测,半监督新颖性检测,正-未标记学习,非分布检测)。 随着生成对抗网络(GAN)的使用,这些研究中的一部分采用了一种换能器设置,以学习如何生成新类的示例。 在本研究中,我们提出了一个转换生成对抗网络TransductGAN,它试图通过在潜在空间中使用两个高斯的混合来学习如何从新类和负类中生成图像示例。 通过将对抗性自动编码器与GAN网络相结合,生成新颖数据点示例的能力不仅提供了新颖的可视化表示,而且克服了许多归纳方法所面临的如何调整模型超对等的障碍。

三、Driving Anomaly Detection Using Conditional Generative Adversarial Network
CVPR-2022 用CGAN做驾驶异常检测
异常驾驶检测是高级驾驶辅助系统(ADAS)中的一个重要问题。 尽早识别潜在的危险情景以避免潜在的事故是很重要的。 本研究提出一种无监督的方法来量化驾驶异常使用条件生成对抗网络(GAN)。 该方法通过对先前观察到的信号进行调整来预测即将到来的驾驶场景。 该系统使用来自鉴别器的输出在预测信号和实际信号之间的差值作为度量来量化驱动段的异常程度。 我们采用以驾驶员为中心的方法,考虑来自驾驶员的生理信号和来自车辆的控制器局域网总线(CANBUS)信号。 该方法采用卷积神经网络(CNNs)提取鉴别特征表示,并用长短时记忆(LSTM)单元捕捉时间信息。 该研究是通过驾驶异常数据集(DAD)来实现和评估的,该数据集包括250小时人工标注驾驶事件的自然主义记录。 实验结果表明,标注有可能异常事件的记录,如避免路上行人、违反交通规则等,比未标注事件的记录具有更高的异常分数。 结果通过感知评估来验证,其中注释者被要求评估异常得分高的视频的风险和熟悉度。 结果表明,异常得分较高的驾驶段比其他驾驶段更有风险,在道路上更不常见,验证了所提出的无监督方法。 索引项驱动异常检测,条件生成对抗网络,卷积神经网络,长短时记忆细胞。


本文综述了最新的GAN应用进展,包括图像编辑、新颖性检测、驾驶异常检测等多个领域。介绍了EditGAN、TransductGAN等模型在高精度图像编辑及新颖性检测等方面的应用,并探讨了GAN在图像生成、转换及修复等任务中的潜力。
最低0.47元/天 解锁文章
3747

被折叠的 条评论
为什么被折叠?



