A Contrastive Divergence for Combining Variational Inference and MCMC论文读后总结

A Contrastive Divergence for Combining Variational Inference and MCMC论文读后总结

论文名字

A Contrastive Divergence for Combining Variational Inference and MCMC
变分推断与mcmc结合的对比散度

Contrastive Divergence

CD(Contrastive Divergence)是log-likelihood gradient的近似算法,同时是a successful update rule for training RBMs,用于训练RBM。

马尔可夫链蒙特卡罗(mcmc)

变分推断(vi)

论文内容介绍

该论文利用马尔可夫链-蒙特卡罗方法(mcmc)和变分推断(vi)的优点,提出了一种将两者结合的方法。
变分的缺陷在于,近似的效果不是很好
但是,MCMC只要马尔科夫链长度足够,就能还原出真实的后验概率的。
所以,我们可以将变分推断(VI)学到的分布qθ(z)作为MCMC的初始值,
用MCMC迭代几轮,让他越来越逼近真实的分布p(z∣x),

然后再回去更新近似分布的参数qθ(z) 。
如此迭代地来即解决了变分近似不准的问题,又解决了MCMC速度慢的问题。

KL 散度,这是一个用来衡量两个概率分布的相似性的一个度量指标。我们知道,现实世界里的任何观察都可以看成表示成信息和数据,一般来说,我们无法获取数据的总体,我们只能拿到数据的部分样本,根据数据的部分样本,我们会对数据的整体做一个近似的估计,而数据整体本身有一个真实的分布(我们可能永远无法知道),那么近似估计的概率分布和数据整体真实的概率分布的相似度,或者说差异程度,可以用 KL 散度来表示。

以这种方式组合vi和mcmc是一项挑

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值