理解原始Gan Loss 和 Hinge Gan Loss

本文详细解读了GAN Loss的优化目标及其工作原理,并介绍了Hinge GAN Loss的结合,涉及判别器和生成器的训练策略。通过比较和Hinge Loss的关系,阐述了如何通过调整判别器和生成器的损失函数来提升模型性能。

原始Gan Loss

minG maxD V(D,G)=Ex∼Pdata[log D(x)]+Ez∼Pz (Z)[log(1−D(G(Z)))] \mathop{min}\limits_{G}\space \mathop{max}\limits_{D}\space V(D,G) = E_{x\sim P_{data}}[log\space D(x)] + E_{z \sim P_z \space (Z)}[log(1-D(G(Z)))] Gmin Dmax V(D,G)=ExPdata[log D(x)]+EzPz (Z)[log(1

目前在 GAN(Generative Adversarial Network)模型中,常用的表现好的损失函数包括以下几种: 1. WGAN(Wasserstein GAN):WGAN 是一种改进的 GAN 模型,使用 Wasserstein 距离来度量生成样本与真实样本之间的距离,从而避免了传统 GAN 中的模式崩溃梯度消失等问题。WGAN 的损失函数是生成器判别器的 Wasserstein 距离之差。 2. LSGAN(Least Squares GAN):LSGAN 也是一种改进的 GAN 模型,使用均方误差来度量生成样本与真实样本之间的距离,从而能够生成更加逼真的样本。LSGAN 的损失函数是生成器判别器的均方误差之。 3. HINGE 损失函数:HINGE 损失函数是一种基于 SVM 的损失函数,可以让判别器更容易地区分真实样本生成样本,从而提高训练稳定性生成样本的质量。HINGE 损失函数的表达式是一个分段函数。 4. GAN-CLS:GAN-CLS 是一种基于分类任务的 GAN 模型,它使用分类任务的损失函数来替代传统的生成器判别器的损失函数,从而能够生成更加多样化的样本。 5. BEGAN(Boundary Equilibrium GAN):BEGAN 是一种基于均衡理论的 GAN 模型,它通过建立生成样本与真实样本的边界来平衡生成器判别器,从而能够生成高质量的多样化样本。 总之,好的 GAN 损失函数应该具有稳定性、逼真度高、多样性、提高多样性、均衡性等特点,能够训练出高质量的生成模型。上述的这些损失函数都能够有效地提高 GAN 模型的表现。
评论 4
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

daimashiren

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值