Deep Learning的学习实践 4 -- DBN

本文介绍了深度学习的起源,重点讨论2006年开创性的三篇论文,以及DBN(Deep Belief Networks)模型的发展。DBN基于RBM(Restricted Boltzmann Machines)模型,RBM利用波尔兹曼分布和Gibbs采样进行学习。Hinton的对比散度算法(CD)加速了RBM的学习。DBN通过预训练和精调两步学习,适用于特征间有依赖性的数据。文中还提及了在Theano中实现DBN的关键代码和训练参数的调整对模型性能的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先,讨论一下Deep Learning的一些起源文章,在2006年以前,深度的神经网络一直没有很好地训练方法,有一些问题(比如前文所说的“梯度消亡”的问题),结果不好。2006年,发了3篇重要的初创文章,改变了这一局面,并开始了Deep Learning这个领域的大发展。这3篇文章是:

Hinton,G. E., Osindero, S. and Teh, Y.,Afast learning algorithm for deep belief nets.Neural Computation 18:1527-1554, 2006

Yoshua Bengio, Pascal Lamblin, Dan Popovici and HugoLarochelle,Greedy LayerWise Training of DeepNetworks, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007

Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and YannLeCun Efficient Learning of SparseRepresentations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural InformationProcessing Systems (NIPS 2006), MIT Press, 2007

(Google上搜蓝色标题的3paper可以查到原文。)

首先被研究出来的是DBNDeepBelief Networks)模型(基于RBM模型),这是Hinton开创的,就是上面第1篇论文。然后Bengio详细分析了DBN,并提出了一种训练效率比较DBN要高,更加generalization,结果与DBN近似的模型:auto-encoders,就是上面第2篇论文。然后YannLeCun等人进一步提出Sparse auto-encoders 模型,就是上面第3篇论文。我觉得分层训练,Pretraining是整个技术的核心突破。

另外,Bengio2003年发表了一篇论文“ANeural Probabilistic Language Model”,提出了一种基于神经网络的语言模型用于NLP(自然语言处理),这是很重要的论文,后面被NLP领域广泛引用,包括Googleword2vec,包括MT(机器翻译)领域的一些文章。这些模型也是Deep Learning领域的模型。

还有,Yann LeCun1998年做的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值