有了神经网络和反向传播的基础,我们就可以将其应用到稀疏自编码器中了。稀疏自编码器属于非监督学习,主要通过尝试学习一个 hW,b(x)≈x 的函数,来提取输入值 x 中的特征。
0.本文中使用的符号
本文中使用的符号大体与上一篇文章相同,在此仅列出一些新增加的符号和需要注意的符号
符号 | 描述 |
---|---|
1.什么是稀疏自编码器 先上图: 2.为什么要用稀疏自编码器由于为数据人工增加类别标记是一个非常麻烦的过程,我们希望机器能够自己学习到样本中的一些重要特征。通过对隐藏层施加一些限制,能够使得它在恶劣的环境下学习到能最好表达样本的特征,并能有效地对样本进行降维。这种限制可以是对隐藏层稀疏性的限制。 3.稀疏性限制3.1稀疏性当使用sigmoid函数作为激活函数时,若神经元输出值为1,则可认为其被激活,若神经元输出值为0,则可认为其被抑制(使用tanh函数时,代表激活和抑制的值分别为1和-1)。稀疏性限制就是要保证大多数神经元输出为0,即被抑制的状态。 3.2如何限制隐藏层稀疏性 在本文开始所给出的稀疏自编码网络中,为了限制隐藏结点稀疏性,可以进行如下表示: PS. 什么是KL散度? 在这里,我们是要用
ρj^
去逼近
ρ
,这里的KL散度是: 注意:在ufldl的自编码算法和稀疏性中的后向传播算法里,提到隐藏层第
i
个结点残差为:
04-28
![]() 评论 1
![]() ![]() ![]()
查看更多评论
![]()
添加红包
![]() ![]() |