GAN论文引用与研读

18 种热门 GAN 的 PyTorch 开源代码 | 附论文地址

http://www.myzaker.com/article/5adefd265d8b54261b3a6085

 

原始GAN(基本概念及理论推导)

https://blog.youkuaiyun.com/xys430381_1/article/details/82189521

GAN论文研读(一)-----GAN与cGAN

https://blog.youkuaiyun.com/openSUSE1995/article/details/79233101

针对原始GAN不能生成具有特定属性的图片的问题,Mehdi Mirza等人[2]提出了cGAN,其核心在于将属性信息yy融入生成器GG和判别器DD中,属性yy可以是任何标签信息,例如图像的类别、人脸图像的面部表情等。在此大方向的指导下,下图给出了cGAN的网络拓扑结构。

简单理解与实验生成对抗网络GAN

https://blog.youkuaiyun.com/on2way/article/details/72773771(数学公式的解释非常容易理解)

生成对抗网络(GAN)的理论与应用完整入门介绍

https://blog.youkuaiyun.com/blood0604/article/details/73635586(GAN简单的示意图)

生成对抗网络综述:从架构到训练技巧,看这篇论文就够了

https://www.jiqizhixin.com/articles/2017-10-22-4

机器之心GitHub项目:GAN完整理论推导与实现,Perfect!

https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650731540&idx=1&sn=193457603fe11b89f3d298ac1799b9fd&chksm=871b306ab06cb97c502af9552657b8e73f1f5286bc4cc71b021f64604fd53dae3f026bc9ac69&scene=0#rd

李宏毅深度学习(六):Generative Adversarial Network (GAN)

https://www.jianshu.com/p/40feb1aa642a

 

DCGAN、WGAN、WGAN-GP、LSGAN、BEGAN原理总结及对比

https://blog.youkuaiyun.com/qq_25737169/article/details/78857788

资源 | 生成对抗网络及其变体的论文汇总

https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650725730&idx=4&sn=7228767c7688ad8e3802a3978141d499&chksm=871b191cb06c900ae5694a9f102151f483633c09c4892b384abee6055893e3ad35be9d73a31a&scene=21#wechat_redirect

综述 | 一文帮你发现各种出色的GAN变体

https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650724769&idx=2&sn=6fa540106cf6a5fd55fc39d057092888&chksm=871b1ddfb06c94c9e11d3a8281f60c0fce06a4e021fcd8eaab858c7f08ab9c939c4ad130e4b2&scene=21#wechat_redirect

 

谱归一化(Spectral Normalization)的理解

https://blog.youkuaiyun.com/StreamRock/article/details/83590347

(WGan首先提出Discriminator的参数矩阵需要满足Lipschitz约束,但其方法比较简单粗暴:直接对参数矩阵中元素进行限制,不让其大于某个值。这种方法,是可以保证Lipschitz约束的,但在削顶的同时,也破坏了整个参数矩阵的结构——各参数之间的比例关系。针对这个问题,【1】提出了一个既满足Lipschitz条件,又不用破坏矩阵结构的方法——Spectral Normalization。
只需让每层网络的网络参数除以该层参数矩阵的谱范数即可满足Lipschitz=1的约束,由此诞生了谱归一化(Spectral Normailization)为获得每层参数矩阵的谱范数,需要求解 W 的奇异值,这将耗费大量的计算资源,因而可采用“幂迭代法”来近似求取)

谱范数正则(Spectral Norm Regularization)的理解

https://blog.youkuaiyun.com/StreamRock/article/details/83539937

《Spectral Normalization for Generative Adversarial Networks》【1】、《Spectral Norm Regularization》【2】两篇文章从不同的角度讨论了:参数矩阵的谱范数对多层神经网络的泛化的影响,并分别给出了两个不同的应对方法:前者对Discriminator矩阵参数进行归一化处理(SNGAN采用的该方法),后者可以加入任意多层网络(在更新梯度时加入了谱范数正则项)。

 

重磅突破:从36.8到52.52,引入自我注意力模块的SAGAN

https://www.jqr.com/article/000240

SAGAN——Self-Attention Generative Adversarial Networks

https://blog.youkuaiyun.com/HaoTheAnswer/article/details/82733234

 

 

 

Paper之BigGAN:ICLR 2019最新论文《LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS》论文研究中

https://blog.youkuaiyun.com/qq_41185868/article/details/82908363

[论文笔记] LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS

https://blog.youkuaiyun.com/qq_26020233/article/details/83004755

深度解读DeepMind新作:史上最强GAN图像生成器—BigGAN

https://blog.youkuaiyun.com/c9Yv2cf9I06K2A9E/article/details/83026880

作者自揭BigGAN:这不是算法进步,是算力进步

http://www.chainske.com/a/show.php?itemid=5028

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值