
VAE的处理trick
catbird233
这个作者很懒,什么都没留下…
展开
-
Latent Alignment and Variational Attention论文笔记
注意力 (attention) 模型在神经网络中被广泛应用,不过注意力机制一般是决定性的而非随机变量。来自哈佛大学的研究人员提出了将注意力建模成隐变量,应用变分自编码器(Variational Auto-Encoder,VAE)和梯度策略来训练模型,在不使用 kl annealing 等训练技巧的情况下进行训练,目前在 IWSLT German-English 上取得了非常不错的成果。论文...转载 2019-05-27 02:17:51 · 1378 阅读 · 0 评论 -
VAE目标函数总结
代码对应部分:原创 2019-04-25 18:24:38 · 1208 阅读 · 0 评论 -
半监督VAE文本分类中对无标签以及有标签数据的处理区别
论文笔记:https://cloud.tencent.com/developer/news/43321Semi-supervised Learning with Deep Generative Models-------2014 NIPS参考的复现代码:https://github.com/wead-hsu/semi-vae1.对于有标签数据先求重构损失,再加分类损失,要...原创 2019-04-21 17:13:41 · 4624 阅读 · 1 评论 -
VAE在NLP中的应用
转自:http://rsarxiv.github.io/2017/03/02/PaperWeekly%E7%AC%AC%E4%BA%8C%E5%8D%81%E4%B8%83%E6%9C%9F/转自:http://www.zhiding.cn/techwalker/documents/J9UpWRDfVYHE5TpRGiv0xtyE8PkOpXEHWb_a1TS4qjg提及 Generati...转载 2019-04-18 21:10:07 · 5882 阅读 · 1 评论 -
干货 | 你的 KL 散度 vanish 了吗?
转自:https://www.sohu.com/a/216987798_297288最近(其实是去年)和大家分享过 Variational Autoencoder (VAE) 在对话生成(文本生成)上的一些应用(点击查看)。由于生成模型的新颖性和效果都能让人眼前一亮,所以越来越多的学者都对其进行了探索与尝试。然而当 VAE 和强如RNN/PixelCNN 这样的autoregressive m...转载 2018-11-26 22:25:40 · 3156 阅读 · 0 评论 -
VAE中关于损失函数的一部分推导trick,避免难以算出结果
选自《深度生成模型》一书vae的损失函数是最大化11.20式子原创 2018-11-21 23:16:17 · 5183 阅读 · 4 评论 -
VAE--变分自编码器的通俗易懂的解释
转自:https://spaces.ac.cn/archives/5253过去虽然没有细看,但印象里一直觉得变分自编码器(Variational Auto-Encoder,VAE)是个好东西。于是趁着最近看概率图模型的三分钟热度,我决定也争取把VAE搞懂。于是乎照样翻了网上很多资料,无一例外发现都很含糊,主要的感觉是公式写了一大通,还是迷迷糊糊的,最后好不容易觉得看懂了,再去看看实现的代码,又...转载 2018-10-18 22:52:18 · 3713 阅读 · 0 评论 -
条件变分自编码器CVAE
转自:https://zhuanlan.zhihu.com/p/25518643上一期探讨了变分自编码器模型(VAEs),本期继续生成模型的专题,我们来看一下条件概率版本的变分自编码器(CVAEs)。(对应的,另一类生成模型GANs也有条件概率版本,称为CGANs。)VAE回顾VAE的目标是最大化对数似然函数其中,由于KL散度非负,对数似然函数的变分下界即为...转载 2019-05-28 13:29:05 · 7618 阅读 · 0 评论