在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
这是 PaperDaily 的第 98 篇文章本期推荐的论文笔记来自 PaperWeekly 社区用户 @TwistedW。跨模态的图像生成在模态差异大的情况下是很难实现的,本文将一个模态下编码得到的潜在变量当做条件经过 GAN 映射为另一个模态下的潜在变量,实现了模态间潜在变量之间的相互映射,从而实现了跨模态下的相互生成。
如果你对本文工作感兴趣,点击底部阅读原文即可查看原论文。
关于作者:武广,合肥工业大学硕士生,研究方向为图像生成。
■ 论文 | Cross Domain Image Generation through Latent Space Exploration with Adversarial Loss
■ 链接 | https://www.paperweekly.site/papers/2223
■ 作者 | Yingjing Lu
跨模态之间转换生成在模态间差异大的时候是相对困难的,将一个模态编码得到的潜在变量作为条件,在 GAN 的训练下映射到另一个模态的潜在变量是本文的核心。虽然这篇论文只是预印版,但是文章的这个跨模态潜在变量相互映射的思想是很有启发性的。
论文引入
人类很容易学会将一个领域的知识转移到另一个领域,人类可以灵活地学习将他们已经在不同领域学到的知识连接在一起,这样在一个领域内的条件下,他们就可以回忆或激活他们从另一个领域学到的知识。
深度生成模型通过将它们映射到潜在空间来编码一个域内的隐式知识是被广泛使用的,可以控制潜在变量通过条件在学习域内生成特定样本。然而,与人类相比,深层生成模型在从一个域到另一个域之间建立新连接方面不够灵活。换句话说,一旦它学会了从一组域条件生成样本,使其用于生成以另一组控制为条件的样本通常很难并且可能需要重新训练模型。
跨域转换对于建立模态之间的联系是重要的,能够让神经网络更加地智能化,有一些方法提出来解决跨模态的问题。将条件编码映射到无条件训练的 VAE [1]