GAN网络结构
首先将样本图片传入到判别器中进行处理,不断的优化判别器,使所得到的概率为1
其次,将随机语义值传入到生成器中得到一个假的图片样本数据,将假的样本数据输入到判别器中进行处理,不断的优化判别器,使所得到的的概率为0(这个部分主要是训练判别器)
最后,重复上诉步骤,不断的优化生成器,从而达到对抗的效果
当生成器和判别器的优化达到动态的平衡(也就是纳什均衡)所得到的图片就是我们想要图片的最好的效果
过程虽然简单,但是会出现梯度消失的问题,原因如下:
在步骤一种,我们将样本X 传辨别器入到判别器D中会得到逻辑值Logits
其次我们将逻辑值进行Sigmoid函数进行激活操作得到概率值P
最后我们将生产的概率值进行交叉熵的操作最终可以得到我们想要的损失值Loss
当我们在反向传播的时候,会出现以下的问题:(公式推导)
p=sigmoid(logits)p = sigmoid(logits)p
本文介绍了如何利用Wasserstein GAN(WGAN)解决生成对抗网络(GAN)在训练过程中遇到的梯度消失和梯度爆炸问题。通过调整损失函数以确保梯度为1,从而避免梯度消失,并通过限制判别器参数的范围来防止梯度爆炸,以达到更好的训练效果和图像生成质量。
订阅专栏 解锁全文
463

被折叠的 条评论
为什么被折叠?



