机器学习的求导公式

本文详细探讨了机器学习中的损失函数和代价函数的求导公式。首先,介绍了损失函数的求导,通过激活函数和权重矩阵推导出dZ、dX、dW和db的表达式。接着,讲解了代价函数的求导,考虑整个样本集的情况,同样给出了dZ、dX、dW和db的更新规则。这些公式在梯度下降等优化算法中至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习的求导公式

损失函数的求导公式

loss ⁡ ( X ) \operatorname {loss} \left (X\right ) loss(X) 为单个样本 X X X 的损失函数,
A = g ( Z ) = ( g ⁡ ( z 1 ) ⋮ g ⁡ ( z n ) ) A = g\left (Z\right ) = \begin{pmatrix} \operatorname {g} \left ( z _{1} \right ) \\ \vdots \\ \operatorname {g} \left ( z _{n} \right ) \end{pmatrix} A=g(Z)=g(z1)g(zn) a i = g ⁡ ( z i ) a _{i} = \operatorname {g} \left ( z _{i} \right ) ai=g(zi),其中 g ⁡ \operatorname {g} g 为激活函数。
Z = W X + b Z = WX + b Z=WX+b z i = ∑ j w i , j x j + b i z _{i} = \sum \limits_{j} w _{i, j} x _{j} + b _{i} zi=jwi,jxj+bi
对于任意变量 x , x, x, d ⁡ x = ∂ ∂ x loss ⁡ ( X ) \operatorname {d} x = \dfrac {\partial} {\partial x} \operatorname {loss} \left (X\right ) dx=xloss(X)
则:
d ⁡ Z = d ⁡ A ∗ g ′ ( Z ) \operatorname {d} Z = \operatorname {d} A * g'\left (Z\right ) dZ=dAg(Z) 其中 ∗ * 为element-wise的乘积。
d ⁡ X = W ⊺ ⋅ d ⁡ Z \operatorname {d} X = W ^{\intercal} \cdot \operatorname {d} Z dX=WdZ
d ⁡ W = d ⁡ Z ⋅ X ⊺ \operatorname {d} W = \operatorname {d} Z \cdot X ^{\intercal} dW=dZX
d ⁡ b = d ⁡ Z \operatorname {d} b = \operatorname {d} Z

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值