1.LL层神经网络的前向传播:
设第 层的权值矩阵为WlWl,输出为zlzl,激活值为alal, 激活函数都选用σσ,误差函数选择均方误差,则有如下关系:
zl=Wlal−1+blal=σ(zl)J(W,b,x,y)=12||aL−y||22zl=Wlal−1+blal=σ(zl)J(W,b,x,y)=12||aL−y||22
2.LL 层神经网络的反向传播:
对于输出层 层:
∂J(W,b,x,y)∂WL==∂J(W,b,x,y)∂aL∂aL∂zL∂zL∂WL(aL−y)⨀σ′(zL)(aL−1)T(18)(19)(18)∂J(W,b,x,y)∂WL=∂J(W,b,x,y)∂aL∂aL∂zL∂zL∂WL(19)=(aL−y)⨀σ′(zL)(aL−1)T
∂J(W,b,x,y)∂bL==∂J(W,b,x,y)∂aL∂aL∂zL
深度神经网络反向传播详解

本文详细介绍了深度神经网络(DNN)的反向传播过程,从LL层的前向传播开始,深入讨论了激活函数为sigmoid时的收敛速度问题,并对比了交叉熵损失函数与均方误差函数在反向传播中的优势。此外,还探讨了softmax激活函数与对数似然损失函数的结合,以及DNN的正则化方法,包括L2正则化和dropout策略。
最低0.47元/天 解锁文章
5113

被折叠的 条评论
为什么被折叠?



