
GAN
文章平均质量分 77
加勒比海鲜王
机器学习探索者,欢迎关注简书账号——加勒比海鲜王
展开
-
GAN入门基础指导
保留初心,砥砺前行这次并没有标题党,说一文精通GAN什么的。因为毕竟paper才是基础。以下内容只是辅助作用,相当于paper重点内容的总结而已。再次强调,请读者先读paper。 Generative Adversarial Networkspaper不能完全搞懂没关系,看下边。第一个问题,GAN对噪声z的分布有要求吗?常用哪些分布?常用的有高斯分布 也可以用均匀分布为什么初始噪声是100维咧原创 2017-08-27 08:39:40 · 927 阅读 · 0 评论 -
继上一次GAN应用于NLP的讨论的后续讨论
保留初心,砥砺前行这是上一次GAN for NLP的讨论记录,需要的同学拿去享用: 记录一次与大神们的关于GAN应用于NLP的讨论这次的讨论可能是因为题目不够大众,或者是做这方面的同学们太过羞涩,因此讨论的内容基本偏题,最后形成了大家自由讨论的局面。但是只要仔细观察,是可以看到其中是有着耀眼的闪光点的,至少对于我来说是这样的。重申以下观点: 下边的讨论问题与解答有些是文不对题的,首先是因为按照原创 2017-08-27 08:38:01 · 1710 阅读 · 0 评论 -
记录一次与大神们的关于GAN应用于NLP的讨论
保留初心,砥砺前行说实话,是聆听了大神们,本人只是捧哏似的嗯、啊了几句。之前paperweekly的GAN讨论组要进行一次讨论,给出了很多议题进行投票。里边有GAN in NLP、GAN and RL、半监督GAN等我比较感兴趣的话题。也有图像相关的关于GAN的正统问题。没想到最后GAN in NLP获得了最多的票数。我原来对于把GAN应用于NLP叫做剑走偏锋,没想到志同道合的人这么多…接下来是对原创 2017-08-27 08:33:26 · 5655 阅读 · 1 评论 -
从代码学ConditionalGAN
首先,代码引用自https://github.com/wiseodd/generative-models 感谢这位网友的代码支持。每个月总有30天不想看论文,所以直接看源码或许是一个好办法。因为有些时候它的改动就那么一点点。而论文却要用晦涩难懂的语言证明上十几页。上边这个链接中给出了很多GAN和VAE以及各种变体的源码,并且写得清晰易懂,再次感谢这位网友的贡献。ConditionalGAN顾名思义原创 2017-09-28 13:30:24 · 7729 阅读 · 3 评论 -
谈谈Adversarial Autoencoders
保留初心,砥砺前行最近看了Adversarial Autoencoders(以下简称AAE)这篇paper,就随便写几句笔记。paper链接,点我1. 概述:GAN和VAE是近年来很火的生成模型(关于GAN,我之前写过几篇了,需要的话点击文末的相关链接即可),对于这两个模型的研究层出不穷,变体无数,而将这两者结合也是一种优秀的思路。GAN说白了就是对抗,VAE就是一种Autoencoders,而本原创 2017-09-04 16:37:55 · 11616 阅读 · 4 评论