wgan-gp相关(转)

博客主要介绍了WGAN-GP,展示其最终目标函数,指出其创新点在目标函数第二项,因独立施加梯度惩罚,判别器架构不能用Batch Normalization。还提到它改进了WGAN存在的参数集中化、梯度爆炸和消失问题。此外,涉及了WGAN-GP与WGAN及GAN的比较。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【时间】2019.03.18

【题目】wgan-gp相关

1、WGAN-GP(改进的WGAN)介绍

【要点】

下面公式展示为WGAN-GP的最终目标函数:

WGAN-GP的创新点也就在目标函数的第二项上,由于模型是对每个样本独立地施加梯度惩罚,所以判别器的模型架构中不能使用Batch Normalization, 因为它会引入同个batch中不同样本的相互依赖关系。

小结:WGAN-GP指出了WGAN存在的两大问题,weight clipping导致的参数集中化和调参上的梯度爆炸和梯度消失问题,改进的gradient penalty解决 了问题将参数与限制联系起来达到真实的Lipschitz限制条件。

2、WGAN-GP与WGAN及GAN的比较

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值