神经网络的反向传播公式推导

写在前面

机器学习算法工程师的面试中常会问到一个很基础的问题,那就是反向传播公式的推导,今天看了下吴恩达老师的公开课《神经网络和深度学习》,将一些推导过程记录下来。

逻辑回归反向传播的推导

逻辑回归是最简单的神经网络,先从逻辑回归入手,有助于后面的理解。
这里写图片描述
上图是一个逻辑回归正向传播的示意图。具体细节不再描述。

损失函数L(a,y)=yloga(1y)log(1a)L(a,y)=−yloga−(1−y)log(1−a),反向传播的目的是为了求 dwdwdbdb,从而采用梯度下降法进行迭代优化。反向传播就是从后向前一步步求微分,从而得到dwdwdbdb。具体过程如下:

(1) da=dL(a,y)da=ya+1y1ada=dL(a,y)da=−ya+1−y1−a
(2) dz=dag(z)dz=da⋅g′(z)
(3) dw=dzxdw=dz⋅x
(4) db=dzdb=dz

这样就完成了逻辑回归的反向传播。

单隐层神经网络的反向传播推导

神经网络计算中,与逻辑回归十分相似,但中间会有多层计算。下图是一个双层神经网络,有一个输入层,一个隐藏层和一个输出层。
这里写图片描述
前向传播过程如图所示。其中L(a<

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值