Training Products of Experts by Minimizing Contrastive Divergence阅读笔记

本文是关于Hinton的对比散度在产品专家(PoE)模型中的应用阅读笔记。PoE模型通过乘积和重新归一化多个分布形成新分布。文章探讨了使用对数似然和对比散度作为目标函数的问题,其中对比散度能更有效地训练RBM。在采样困难的情况下,对比散度提供了一种优化模型参数的方法,通过一步Gibbs采样加速训练过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

Hinton大牛的对比散度阅读笔记

 

个人感想:为了看懂这篇论文查了大量资料,感觉很多博客的理解讲得不是很清楚,大多数是关于对比散度在RBM中的应用。后来跟老师讨论了一下感觉已经大致理解了这篇文章的核心思想。另外大部分公式是自己手动敲的,欢迎大家评论转载,哈哈哈哈!

1.PoE模型

什么是PoE(product of experts)模型呢,更确切地说他应该是一种思想,就是把很多个分布乘起来再重新归一化得到一个新的分布,而这里的每一个分布就是一个专家(expert)。而这篇文章要就是针对这种模型提出了一种新的目标函数,之前使用的是对数似然。顺便提一下,作者在提到PoE模型之前还提出了一种模型,就是加权求和,这种方法是另一种结合多个模型或者分布的方法。就是对多个模型或者分布进行加权求和。但是作者说这种方法在拟合高维数据空间的时候效果不太好,大概就是这个意思吧。也许你已经注意到了我在上面说了很多“模型或者分布”这样的话,我们很多的机器学习模型包括深度学习其实就是在拟合某种数据的分布,这种方法理论上是可行的只要我们可以得到真实分布的下产生的所有数据,那么问题来了,很多时候我们并不知道这个分布。怎么办呢?我们只要利用尽可能多的我们观察到的数据来拟合或者逼近这个分布,如果这个拟合的分布足够接近那个"真实的分布"的话,我们就可以使用这个"拟合的分布"对服从"真实的分布"的还没有观察到的进行比较准确的预测和某种推断。请仔细体会模型和分布的关系。

2.使用对数似然作为PoE模型的目标函数

 PoE模型具体表达式如上面的公式,这个是原文的公式在推导的时候我把下标具体化了,更加方便理解。这里的c可以看作真实分布产生的数据。这里的d是观查到的数据,就是我们实际用来训练模型的数据,这里只是拿出一个数据作为示例。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值