【时间】2019.03.18
【题目】wgan-gp相关
【要点】
下面公式展示为WGAN-GP的最终目标函数:

WGAN-GP的创新点也就在目标函数的第二项上,由于模型是对每个样本独立地施加梯度惩罚,所以判别器的模型架构中不能使用Batch Normalization, 因为它会引入同个batch中不同样本的相互依赖关系。
小结:WGAN-GP指出了WGAN存在的两大问题,weight clipping导致的参数集中化和调参上的梯度爆炸和梯度消失问题,改进的gradient penalty解决 了问题将参数与限制联系起来达到真实的Lipschitz限制条件。
博客主要介绍了WGAN-GP,展示其最终目标函数,指出其创新点在目标函数第二项,因独立施加梯度惩罚,判别器架构不能用Batch Normalization。还提到它改进了WGAN存在的参数集中化、梯度爆炸和消失问题。此外,涉及了WGAN-GP与WGAN及GAN的比较。
400

被折叠的 条评论
为什么被折叠?



