生成对抗网络

这篇博客深入探讨了生成对抗网络(GAN)的工作原理,包括GAN的模型构成、训练过程、损失函数以及常见的训练问题。GAN由生成器和判别器组成,通过两者的博弈来学习数据分布。文章还讨论了Wasserstein GAN及其解决的训练稳定性问题,以及Lipschitz连续性的应用。

生成对抗网络 GAN

  1. 模型

    • GAN由生成器与判别器组成,需要同时训练两者,生成器通过噪音变量生成伪造的图片数据,而判别器对于输入图片来源于数据集还是伪造的图片要进行区分,生称器要尽可能的欺骗判别器(使判别器分辨不出图片的来源),而判别器要尽可能的判别出图片的来源,这是一个两方博弈的问题
    • 为了学习生成器对于数据的分布pgpg,定义输入噪声先验变量pz(z)pz(z),生成器记为 G(z;θg)G(z;θg)
    • 判别器用于判断样本来源于生成器,还是原数据集,D(x;θd)D(x;θd)
    • 训练
      • 对于判别器D,训练其最小化生成器采样的样本与数据集中样本的判别误差
      • 同时去训练生成器G,最小化log(1D(G(z)))log(1−D(G(z)))
      • 损失函数 minGmaxDV(G,D)=Expdata(x)[logD(x)]+Ezpz(z)(log(1D(G(z)))minGmaxDV(G,D)=Ex∼pdata(x)[logD(x)]+Ez∼pz(z)(log(1−D(G(z)))
  2. 损失推导
    2.1.1 最大似然估计
    数据分布记为Pdata(x)Pdata(x),对于分布PG(x;θ)PG(x;θ),我们想要使得其与数据分布近似,从Pdata(x)Pdata(x)采样样本,最大化如下似然函数:

    i=1mPG(xi;θ)∏i=1mPG(xi;θ)

    ML估计如下:
    θ=argmaxθlogi=1mPG(xi;θ)=argmaxθi=1mlogPG(xi;θ)argmaxθExPdata[logPG(x;θ)]=argmaxθxP(data(x))logPG(xi;θ)dxxP(data(x))logPdata(x)dx=argminθKL(Pdata
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值