
GAN
文章平均质量分 86
空苍地樱
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
StyleGan2-ADA: Training Generative Adversarial Networks with Limited Data
训练一个GAN模型,通常需要比较多的数据(ffhq是7万),数据量少的话会导致判别器过拟合,回传的梯度无意义,从而导致生成器停止学习或崩掉。GAN本质上就是通过判别器找到生成图与真实图差异的部分,通过赋予相应位置权重(梯度)来提升生成效果。训练初期判别器关注整体形状,后期更关注细节。本文讨论如何使用较少的数据(几千张),通过数据增益方法,避免判别器过拟合,训练出好的生成器。一般的监督学习训练任务都会使用数据增益(旋转,颜色变换、加噪声等),但如果直接用到GAN的训练任务中,可能会导致增益泄露到生成器。比原创 2021-05-28 15:42:56 · 4045 阅读 · 0 评论 -
GauGAN,Semantic Image Synthesis with Spatially-Adaptive Normalization 论文阅读
简介本文做的模型是从一张语义图(分割里的semanticmask)生成相应的一张真实图,下图的第一行是输入,不同的颜色代表不同的语义类别,第二行到第三行是生成的真实图像,其中每一行对应一种风格,每行最左边的图例为风格样式。这篇文章最主要的地方就是讨论了normalization层在语义信息里的作用。之前的方法,normalization层会过滤掉语义图的语义信息。为什么呢,可以看下图...原创 2019-08-29 20:16:41 · 1836 阅读 · 3 评论