上一篇文章讲的是《BEGAN: Boundary Equilibrium Generative Adversarial Networks》将能量函数(Energy)与Wasserstein Distance相结合,再辅之以比例反馈控制,让GAN迅速收敛,并保持了多样性。具体是:
- 让Auto-Encoder作为Discriminator,将原图与重建图的逐点差异(pixel-wise error)作为能量。
- 将D输出的能量看成是一个概率分布,用Wasserstein Distance作为衡量概率分布的距离:真图能量概率分布、假图能量概率分布。
对Wasserstein Distance简化处理,真正衡量的是两个能量分布重心的距离
由Auto-Encoder重建差异构成的能量作为Discriminator的输出其出处是在《ENERGY-BASED GENERATIVE ADVERSARIAL NETWORKS》中,文中提到EBGAN模型,比较EBGAN与BEGAN差异在哪里呢?
BEGAN与EBGAN的模型(D-G)是相似的,如图:

BEGAN的Loss:
(x)=|x−D(x)|(1)D=(x)−kt⋅(G(zD))(2)G=(G(zG))(

本文对比了BEGAN和EBGAN两种基于能量的生成对抗网络,探讨了它们的损失函数差异,并通过实验展示了能量学习在生成图像上的效果。BEGAN利用Auto-Encoder作为Discriminator,EBGAN引入了margin loss。实验结果显示,虽然能量学习不一定总能达到预期,但能直观改善生成结果。
最低0.47元/天 解锁文章
772

被折叠的 条评论
为什么被折叠?



