【极简笔记】Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks(CycleGAN)
论文地址:https://arxiv.org/abs/1703.10593
文章核心贡献是提出了一种双向GAN模型,通过双向adversarial loss和cycle loss的约束使得生成器的映射域更加逼真。该方法在训练过程中对图片要求是unpaired,即给出的是两个图像域,需要学习域之间的映射。
记需要学习的从域X到域Y的映射为G(生成器),反向映射为F(生成器)。在域Y有判别器 DY D Y ,在域X有判别器 DX D X ,用对抗学习的方式训练,不仅要求判别器能够尽可能区分真实图片与生成图片,而且要求两次映射后的误差尽量小,即 F(G(X))≈X,G(F(Y))≈Y F ( G ( X ) ) ≈ X , G ( F ( Y ) ) ≈ Y 。
Adversarial Loss(文中指出least-squares loss比negative log likelihood更稳定):
LGAN(G,DY,X,Y)=Ey