交叉熵损失函中对softmax函数输入单元求导过程

本文深入解析了深度学习中多类别分类任务的交叉熵损失函数与Softmax函数结合时的导数计算技巧。通过推导,展示了在求Softmax输入单元梯度时,交叉熵损失函数中的log如何与Softmax中的exp相互抵消,简化计算过程,提高反向传播效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在回顾关于深度学习的基础知识。在求神经网络梯度的时候损失函数对于网络最后一层输入单元的求导是比较有技巧的。比如在多类别分类任务中经常用交叉熵损失函数训练softmax来输出目标值y。这一组合在对softmax输入单元的求梯度会非常简单,而且损失函数中的log可以抵消softmax中的exp。下面我就来推导交叉熵损失函中对softmax函数输入单元求导过程。

 

下图便是手动推导过程,我们的目标是对softmax函数中输入单元求导。

最后可以看到对输入单元zi求导变得非常简单。在求梯度的时候可以直接给出,使得梯度反向传播的计算量变得很小。

 

参考:https://blog.youkuaiyun.com/qian99/article/details/78046329

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值