机器学习的求导公式

本文详细探讨了机器学习中的损失函数和代价函数的求导公式。首先,介绍了损失函数的求导,通过激活函数和权重矩阵推导出dZ、dX、dW和db的表达式。接着,讲解了代价函数的求导,考虑整个样本集的情况,同样给出了dZ、dX、dW和db的更新规则。这些公式在梯度下降等优化算法中至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习的求导公式

损失函数的求导公式

loss⁡(X)\operatorname {loss} \left (X\right )loss(X) 为单个样本XXX 的损失函数,
A=g(Z)=(g⁡(z1)⋮g⁡(zn))A = g\left (Z\right ) = \begin{pmatrix} \operatorname {g} \left ( z _{1} \right ) \\ \vdots \\ \operatorname {g} \left ( z _{n} \right ) \end{pmatrix}A=g(Z)=g(z1)g(zn)ai=g⁡(zi)a _{i} = \operatorname {g} \left ( z _{i} \right )ai=g(zi),其中g⁡\operatorname {g}g 为激活函数。
Z=WX+bZ = WX + bZ=WX+bzi=∑jwi,jxj+biz _{i} = \sum \limits_{j} w _{i, j} x _{j} + b _{i}zi=jwi,jxj+bi
对于任意变量x,x,x,d⁡x=∂∂xloss⁡(X)\operatorname {d} x = \dfrac {\partial} {\partial x} \operatorname {loss} \left (X\right )dx=xloss(X)
则:
d⁡Z=d⁡A∗g′(Z)\operatorname {d} Z = \operatorname {d} A * g'\left (Z\right )dZ=dAg(Z) 其中∗* 为element-wise的乘积。
d⁡X=W⊺⋅d⁡Z\operatorname {d} X = W ^{\intercal} \cdot \operatorname {d} ZdX=WdZ
d⁡W=d⁡Z⋅X⊺\operatorname {d} W = \operatorname {d} Z \cdot X ^{\intercal}dW=dZX
d⁡b=d⁡Z\operatorname {d} b = \operatorname {d} Zdb=<

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值