忏悔
前段时间学习了《Auto encoding variational bayes》这篇文章,处于种种原因,还写了一篇博客,https://blog.youkuaiyun.com/qq_31456593/article/details/77743840,近日想要自己再重新复习一下,发现当时的理解是相当的不到位,叙述也是模棱两可的,花了很大力气,又重新看了两天,有了许多新的理解,我决定把它写下来。当然认知水平的高低不可能一蹴而就,我希望下次我继续读这个内容的时候又会有新的理解。
1)关于VAE还是AEV
在上一篇博客中,我主要学习的是《Auto encoding variational bayes》这篇文章,所以我自作主张的讲它缩写为AEV。这几天,在大量阅读相关文献博客期间,发现,卧槽,人家叫VAE,全称variational auto encoding。经验主义害死人,看文献细看几眼总归是不会有错的。
言归正传,那么什么是VAE呢?简单来讲,一个可以和GAN相媲美的生成网络。我们可以输入一个低维空间的Z,映射到高维空间的真实数据。比如,生成不同样的数字,人脸,卡通头像等等。
讲的天花乱坠,不如一张图片来的实在,上图就具体展示了VAE的作用,作图是经过一轮训练之后的输出结果,中间的图是经过9轮训练之后的输出结果,而右图就是我们真实地数据。(这里我猜测是将图片先编码,再解码这个全过程,而不是仅仅通过一个随机量去生成)。
2)VAE与GAN之间的差异性
既然VAE与GAN都是属于最近很火的生成网络序列,那么他们之间有什么不同呢?
假设,给定一系列猫的照片,我希望你能够对应我随机输入的一个n维向量,生成一张新的猫的照片,你需要怎么去做?对于GAN就是典型的深度学习时代的逻辑,你