深度学习中的深度信念网络、自编码器与长短期记忆网络
在深度学习领域,深度信念网络(Deep Belief Networks, DBNs)、自编码器(Autoencoder)和长短期记忆网络(Long Short-Term Memory Networks, LSTMs)是非常重要的模型。下面我们将详细介绍这些模型的原理、训练过程以及应用。
深度信念网络(DBNs)
深度信念网络的训练主要分为预训练和微调两个阶段。
预训练阶段
预训练阶段通常通过堆叠受限玻尔兹曼机(Restricted Boltzmann Machines, RBMs)来完成。具体来说,下一个RBM使用前一个RBM的隐藏层作为可见层进行训练,以此来初始化每一层的参数。这个过程利用对比散度(Contrastive Divergence, CD)算法,该算法使用吉布斯采样(Gibbs sampling)从条件分布中抽取样本,生成马尔可夫链。当k趋近于无穷大时,分布会趋近于真实的平稳分布,但在预训练中,k = 1通常就能得到令人满意的近似结果。
下面是一个简单的堆叠RBMs的示意:
v1
v2
v3
...
vm
⇔
1st RBM
h1
h2
...
hn
v1
v2
...
vn
h1
...
hq
2nd RBM
⇔
· · ·
v1
...
vp
h1
...
hs
kth RBM
⇔
微调阶段
在完成参数初始化后,需要对模型进行微调。微调阶段采用有监督学习方法,利用在预训练阶段被忽略的样本标签。为了学习模型,通常会最小化一
超级会员免费看
订阅专栏 解锁全文
37

被折叠的 条评论
为什么被折叠?



