生成对抗网络 GAN
模型
- GAN由生成器与判别器组成,需要同时训练两者,生成器通过噪音变量生成伪造的图片数据,而判别器对于输入图片来源于数据集还是伪造的图片要进行区分,生称器要尽可能的欺骗判别器(使判别器分辨不出图片的来源),而判别器要尽可能的判别出图片的来源,这是一个两方博弈的问题
- 为了学习生成器对于数据的分布pgpg,定义输入噪声先验变量pz(z)pz(z),生成器记为 G(z;θg)G(z;θg)
- 判别器用于判断样本来源于生成器,还是原数据集,D(x;θd)D(x;θd)
- 训练
- 对于判别器D,训练其最小化生成器采样的样本与数据集中样本的判别误差
- 同时去训练生成器G,最小化log(1−D(G(z)))log(1−D(G(z)))
- 损失函数 minGmaxDV(G,D)=Ex∼pdata(x)[logD(x)]+Ez∼pz(z)(log(1−D(G(z)))minGmaxDV(G,D)=Ex∼pdata(x)[logD(x)]+Ez∼pz(z)(log(1−D(G(z)))
损失推导
2.1.1 最大似然估计
数据分布记为Pdata(x)Pdata(x),对于分布PG(x;θ)PG(x;θ),我们想要使得其与数据分布近似,从Pdata(x)Pdata(x)采样样本,最大化如下似然函数:
∏i=1mPG(xi;θ)∏i=1mPG(xi;θ)
ML估计如下:
θ∗=argmaxθlog∏i=1mPG(xi;θ)=argmaxθ∑i=1mlogPG(xi;θ)≈argmaxθEx∼Pdata[logPG(x;θ)]=argmaxθ∫xP(data(x))logPG(xi;θ)dx−∫xP(data(x))logPdata(x)dx=argminθKL(Pdata

这篇博客深入探讨了生成对抗网络(GAN)的工作原理,包括GAN的模型构成、训练过程、损失函数以及常见的训练问题。GAN由生成器和判别器组成,通过两者的博弈来学习数据分布。文章还讨论了Wasserstein GAN及其解决的训练稳定性问题,以及Lipschitz连续性的应用。
最低0.47元/天 解锁文章
2263

被折叠的 条评论
为什么被折叠?



