吴恩达机器学习9.2反向传播公式推导

本文详细梳理了深度学习中反向传播的概念,重点解析了误差和梯度两个核心点。通过两篇文章的阅读,理解了不考虑偏置的梯度传播,并指出吴恩达课程中权重的定义与一般情况的区别。博客提到了输出层误差的计算以及每一层梯度的计算公式,特别讨论了在sigmoid激活函数下误差的表达式。同时,指出了在四层神经网络中权重更新的范围。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

看课看到这一节,算是ML课中相对较难的一节了。

因为一下多出来了好几个公式,而且有些公式是通用的,有些公式是因为老师所举例子为sigmoid而得出的结果。今天稍微梳理了一下,推荐先后阅读以下两篇文章。

关键把握两个点,一是误差,二是梯度。

课上只讲了不考虑偏置时的梯度传播,但第一个文章是包含的。

请特别注意第一篇文章所描述的权重Wl是当前层向左边一层的权重传播,而吴恩达老师课上的Wl是当前层向右边一层的传播,务必区分清除。

除最输出层误差外,每一层误差等于本层到右一层权重Wl与右一层误差δl+1与f‘z的乘积;

输出层误差为损失函数对该层激活值的偏导J'(a,y)与f'z的乘积

当输出层的损失函数为CE,激活函数为sigmoid时,误差为a-y.

每一层梯度为,从该层到有一层的权重Wl的梯度为该层激活值al与上一层误差δl+1的乘积.

所以在吴恩达课上的四层NN,只有W1,W2,W3的权重。最多可对W3求偏导。

推导反向传播中的dZ=A - y_且听风吟的博客-优快云博客

CS224N NLP with Deep Learning(五):反向传播 - 知乎

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值