省流版的GAN loss函数
原始GAN的值函数是
minGmaxDV(D,G)=Ex∼pdata(x)[logD(x)]+Ez∼pz(z)[log(1−D(G(z)))]min_Gmax_DV(D,G) = E_{x \sim p_{data}(x)}[logD(x)]+E_{z \sim p_{z}(z)} [log(1-D(G(z)))]minGmaxDV(D,G)=Ex∼pdata(x)[logD(x)]+Ez∼pz(z)[log(1−D(G(z)))]
这时候D(x)越接近于1,判别器越认为来自于真实样本
WGAN的loss函数是
minGmaxDEx∼pdata(x)[D(x)]−Ez∼pz(z)[D(z)]min_Gmax_D E_{x \sim p_{data}(x)}[D(x)]-E_{z \sim p_{z}(z)} [D(z)]minGmaxDEx∼pdata(x)[D(x)]−E

文章介绍了GANs的基础,包括原始GAN的值函数和WGAN的loss函数,强调了Wasserstein距离在解决优化饱和和坍缩模式中的作用。WGAN-GP通过GradientPenalty确保1-Lipschitz约束。此外,提到了DC-GAN的反卷积结构,ALI和BiGAN的双向转换,以及IRGAN的信息检索视角。CycleGAN则展示了风格迁移的实现,通过循环一致性损失保持内容的一致性。
最低0.47元/天 解锁文章
6999

被折叠的 条评论
为什么被折叠?



