AIGC实战——WGAN
0. 前言
原始的生成对抗网络 (Generative Adversarial Network, GAN) 在训练过程中面临着模式坍塌和梯度消失等问题,为了解决这些问题,研究人员提出了大量的关键技术以提高GAN模型的整体稳定性,并降低了上述问题出现的可能性。例如 WGAN (Wasserstein GAN) 和 WGAN-GP (Wasserstein GAN-Gradient Penalty) 等,通过对原始生成对抗网络 (Generative Adversarial Network, GAN) 框架进行了细微调整,就能够训练复杂GAN。在本节中,我们将学习 WGAN 与 WGAN-GP,两者都对原始 GAN 框架进行了细微调整,以改善图像生成过程的稳定性和质量。
1. WGAN-GP
WGAN (Wasserstein GAN) 是提高 GAN 训练稳定性方面的一次巨大进步,在经过一些简单改动后 GAN 就能够实现以下两个特点:
- 与生成器的收敛度和生
WGAN-GP通过Wasserstein损失和梯度惩罚解决了原始GAN的训练稳定性问题。本文介绍了Wasserstein损失、Lipschitz约束及其在训练过程中的应用,展示了一个使用WGAN-GP训练生成人脸图像的例子。
订阅专栏 解锁全文
1万+





