机器学习08:生成式对抗网络(GAN)中理论介绍与WGAN②

摘要

        本周深入探讨生成对抗网络(GAN)的训练目标与散度计算,揭示JS散度在分布不重叠时的失效问题。提出Wasserstein距离作为替代方案,其通过推土机类比直观反映分布间转换成本。进而引入WGAN框架,通过1-Lipschitz约束(梯度惩罚与谱归一化)稳定训练。实验证明,Wasserstein距离在生成器进化过程中提供连续梯度信号,有效解决模式坍缩。

Abstract

        This week delves into the training objectives and divergence computation in Generative Adversarial Networks (GANs), highlighting the failure of JS divergence when distributions do not overlap. The Wasserstein distance is proposed as an alternative, intuitively reflecting the transformation cost between distributions via an earth mover analogy. The WGAN framework is introduced, incorporating 1-Lipschitz constraints (gradient penalty and spectral normalization) to stabilize training. Experiments demonstrate that the Wasserstein distance provides continuous gradient signals during generator evolution, effectively resolving mode collapse.

一.GAN训练目标

        在训练神经网络中,是要先定一个loss函数,确定完后就要通过梯度下降然后最小化loss函数就结束。而在生成问题中我们想要最小化或者最大化的是使P(G)与P(data)之间的距离越近越好。

        其中P(G)是通过正常分布中抽样然后通过生成器得到的分布,而P(data)则是通过在生成器中输入真实数据得到的分布。就如当输入的如上图中的一维数据通过生成器得到绿色线的分布,而真实的分布如蓝色线分布。

        若表述成式子就如上式子,其中Div是指P(G)与P(data)之间的差距或散度。

        所以我们的训练目标就是去确定一个生成器,该生成器中的参数使得P

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值