简单易懂的softmax交叉熵损失函数求导

来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~
softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的步骤就是求导,从这个过程也可以更深刻地理解反向传播的过程,还可以对梯度传播的问题有更多的思考。

softmax 函数

softmax(柔性最大值)函数,一般在神经网络中, softmax可以作为分类任务的输出层。其实可以认为softmax输出的是几个类别选择的概率,比如我有一个分类任务,要分为三个类,softmax函数可以根据它们相对的大小,输出三个类别选取的概率,并且概率和为1。

softmax函数的公式是这种形式:
Si=ezi∑kezkS_i = \frac{e^{z_i}}{\sum_k{e^{z_k}}}Si=kezkezi
SiS_iSi代表的是第i个神经元的输出。
ok,其实就是在输出后面套一个这个函数,在推导之前,我们统一一下网络中的各个表示符号,避免后面突然出现一个什么符号懵逼推导不下去了。
首先是神经元的输出,一个神经元如下图:

神经元的输出设为:
zi=∑jwijxij+bz_i = \sum_j{w_{ij} x_{ij} + b}zi=jwijxij+b
其中wijw_{ij}wij是第iii个神经元的第jjj个权重,bbb是偏移值。ziz_izi表示该网络的第iii个输出。
给这个输出加上一个softmax函数,那就变成了这样:
ai=ezi∑kezka_i = \frac{e^{z_i}}{\sum_k{e^{z_k}}}ai=kezkezi
aia_iai代表softmax的第i个输出值,右侧就是套用了softmax函数。

损失函数 loss function

在神经网络反向传播中,要求一个损失函数,这个损失函数其实表示的是真实值与网络的估计值的误差,知道误差了,才能知道怎样去修改网络中的权重。

损失函数可以有很多形式,这里用的是交叉熵函数,主要是由于这个求导结果比较简单,易于计算,并且交叉熵解决某些损失函数学习缓慢的问题。交叉熵的函数是这样的:
C=−∑iyiln⁡aiC = -\sum_i{y_i \ln {a_i}}C=iyilnai
其中yiy_iyi表示真实的分类结果。
到这里可能嵌套了好几层,不过不要担心,下面会一步步推导,强烈推荐在纸上写一写,有时候光看看着看着就迷糊了,自己边看边推导更有利于理解~

最后的准备

在我最开始看softmax推导的时候,有时候看到一半不知道是怎么推出来的,其实主要是因为一些求导法则忘记了,唉~
所以这里把基础的求导法则和公式贴出来~有些忘记的朋友可以先大概看一下:

推导过程

好了,这下正式开始~
首先,我们要明确一下我们要求什么,我们要求的是我们的loss对于神经元输出(ziz_izi)的梯度,即:
∂C∂zi\frac{\partial C}{\partial z_i}ziC
根据复合函数求导法则:
∂C∂zi=∑j(∂Cj∂aj∂aj∂zi)\frac{\partial C}{\partial z_i} = \sum_j{( \frac{\partial C_j}{\partial a_j} \frac{\partial a_j}{\partial z_i})} ziC=j(ajCjziaj)
由于有些朋友对于之前的写法有些疑惑,所以我这里修改了一下,这里为什么是aja_jaj而不是aia_iai,这里要看一下softmax的公式了,因为softmax公式的特性,它的分母包含了所有神经元的输出,所以,对于不等于i的其他输出里面,也包含着ziz_izi,所有的aaa都要纳入到计算范围中,并且后面的计算可以看到需要分为i=ji = ji=ji≠ji \neq ji=j两种情况求导。
下面我们一个一个推:
∂Cj∂aj=∂(−yjln⁡aj)∂aj=−yj1aj\frac{\partial C_j}{\partial a_j} = \frac{\partial (-y_j \ln {a_j})}{\partial a_j} = -y_j \frac{1}{a_j} ajCj=aj(yjlnaj)=yjaj1
第二个稍微复杂一点,我们先把它分为两种情况:
①如果i=ji = ji=j
∂ai∂zi=∂(ezi∑kezk)∂zi=∑kezkezi−(ezi)2(∑kezk)2=(ezi∑kezk)(1−ezi∑kezk)=ai(1−ai) \frac{\partial a_i}{\partial z_i} = \frac{\partial ( \frac{e^{z_i}}{\sum_k{e^{z_k}}})} {\partial z_i}= \frac{\sum_k{e^{z_k}e^{z_i} - (e^{z_i})^2}}{(\sum_k{e^{z_k} })^2 } = ( \frac{e^{z_i}}{\sum_k{e^{z_k}}})(1 - \frac{e^{z_i}}{\sum_k{e^{z_k}}}) = a_i(1-a_i)ziai=zi(kezkezi)=(kezk)2kezkezi(ezi)2=(kezkezi)(1kezkezi)=ai(1ai)
②如果i≠ji \neq ji=j
∂aj∂zi=∂(ezj∑kezk)∂zi=−ezj(1∑kezk)2ezi=−aiaj \frac{\partial a_j}{\partial z_i} = \frac{\partial ( \frac{e^{z_j}}{\sum_k{e^{z_k}}})} {\partial z_i} = -e^{z_j}(\frac{1}{\sum_k{e^{z_k}}})^2e^{z_i} = -a_ia_jziaj=zi(kezkezj)=ezj(kezk1)2ezi=aiaj

ok,接下来我们只需要把上面的组合起来:

∂C∂zi=∑j(∂Cj∂aj∂aj∂zi)=∑j≠i(∂Cj∂aj∂aj∂zi)+∑i=j(∂Cj∂aj∂aj∂zi) \frac{\partial C}{\partial z_i} = \sum_j{( \frac{\partial C_j}{\partial a_j} \frac{\partial a_j}{\partial z_i})} = \sum_{j \neq i}{( \frac{\partial C_j}{\partial a_j} \frac{\partial a_j}{\partial z_i})} + \sum_{i =j}{( \frac{\partial C_j}{\partial a_j} \frac{\partial a_j}{\partial z_i})} ziC=j(ajCjziaj)=j=i(ajCjziaj)+i=j(ajCjziaj)
=∑j≠i−yj1aj(−aiaj)+(−yi1ai)(ai(1−ai)) =\sum_{j \neq i}{-y_j \frac{1}{a_j}(-a_ia_j)} + (-y_i \frac{1}{a_i})(a_i(1-a_i)) \quad\quad =j=iyjaj1(aiaj)+(yiai1)(ai(1ai))
=∑j≠iaiyj+(−yi(1−ai)) =\sum_{j \neq i}{a_iy_j} + (-y_i(1-a_i)) \quad\quad\quad\quad\quad\quad\quad\quad\quad =j=iaiyj+(yi(1ai))
=∑j≠iaiyj+aiyi−yi =\sum_{j \neq i}{a_iy_j} + a_iy_i - y_i \quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad =j=iaiyj+aiyiyi
=ai∑jyj−yi   =a_i\sum_j{y_j} - y_i \quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\ \ =aijyjyi  

最后的结果看起来简单了很多,最后,针对分类问题,我们给定的结果yiy_iyi最终只会有一个类别是1,其他类别都是0,因此,对于分类问题,这个梯度等于:
∂C∂zi=ai−yi\frac{\partial C}{\partial z_i} = a_i - y_i ziC=aiyi

<think>好的,我现在需要解决用户关于交叉熵损失函数求导的问题。首先,我得回忆一下交叉熵损失函数的定义以及它在不同激活函数下的应用,比如sigmoid和softmax。根据用户提供的引用,特别是引用[1]、[2]、[3]、[4],用户可能希望了解两种情况下的求导过程。 首先,交叉熵损失函数通常与softmax激活函数结合使用,比如在多分类问题中。这种情况下,损失函数的形式是$C = -\sum_i y_i \ln a_i$,其中$a_i$是softmax的输出,而$y_i$是真实的标签。此时,我需要推导损失函数对模型输出的梯度,也就是$\frac{\partial C}{\partial z_j}$,其中$z_j$是未经过激活函数的原始输出。 接下来,用户可能还想了解二分类情况下的交叉熵损失函数,通常与sigmoid激活函数结合使用。这种情况下,损失函数是$L = -[y \log(p) + (1 - y) \log(1 - p)]$,其中$p = \sigma(z)$是sigmoid函数的输出。此时需要求导的是$\frac{\partial L}{\partial z}$。 在推导过程中,我需要确保每一步的数学步骤正确,特别是应用链式法则时的细节。比如,在softmax情况下,需要处理softmax函数的导数,这涉及到当i=j和i≠j时的不同情况,这会影响到最终的梯度结果。而在sigmoid情况下,则可以利用sigmoid函数的导数特性$\sigma'(z) = \sigma(z)(1 - \sigma(z))$来简化计算。 用户可能存在的疑问点包括:为什么在softmax的推导中,结果会是$a_j - y_j$?以及为什么在sigmoid的情况下,导数结果为$p - y$?我需要详细解释这些步骤,确保推导过程清晰,没有跳跃,让读者能够一步步跟随。 另外,需要注意数学公式的正确排版,使用$$...$$格式来显示独立公式,行内公式则使用$...$。例如,交叉熵损失函数的表达式应该用正确的LaTeX语法呈现,如$C = -\sum_{i} y_i \ln a_i$,并且独立公式要单独成段。 同时,用户提供的引用中有多个来源提到交叉熵损失函数求导较为简单,这可能是因为最终的导数结果形式简洁,便于计算梯度下降。需要强调这一点,说明为什么交叉熵损失函数在训练神经网络时更高效,比如避免了传统均方误差可能带来的学习速度下降问题。 最后,生成的相关问题应该覆盖用户可能进一步想了解的内容,比如与其他损失函数的对比、在深度学习中的应用、梯度消失问题以及反向传播中的具体应用。这些问题需要具体且有针对性,帮助用户扩展知识。 现在,我需要组织这些内容,确保结构清晰,分步骤解释两种情况的求导过程,并在适当的位置引用提供的资料,例如在提到sigmoid的情况时引用[4],在softmax的情况时引用[2]和[3]。同时,保持语言的中文,并检查LaTeX语法是否正确。</think>### 交叉熵损失函数求导过程及结果 交叉熵损失函数常用于分类任务,其求导结果简洁高效,可加速反向传播。根据激活函数类型(如sigmoid或softmax),推导过程略有不同。以下是两种典型情况的推导: --- #### **一、Softmax激活 + 交叉熵损失(多分类)** **公式定义** 假设输出层通过softmax激活函数得到概率分布: $$a_j = \frac{e^{z_j}}{\sum_{k} e^{z_k}}$$ 交叉熵损失函数为: $$C = -\sum_{i} y_i \ln a_i$$ 其中$y_i$是真实标签(one-hot编码),$a_i$是预测概率。 **求导目标** 计算$\frac{\partial C}{\partial z_j}$(损失对未激活输出$z_j$的梯度)。 **推导步骤** 1. **链式法则分解**:$\frac{\partial C}{\partial z_j} = \sum_{k} \frac{\partial C}{\partial a_k} \cdot \frac{\partial a_k}{\partial z_j}$ 2. **计算$\frac{\partial C}{\partial a_k}$**: $$\frac{\partial C}{\partial a_k} = -\frac{y_k}{a_k}$$ 3. **计算$\frac{\partial a_k}{\partial z_j}$**: - 当$k = j$时: $$\frac{\partial a_j}{\partial z_j} = a_j(1 - a_j)$$ - 当$k \neq j$时: $$\frac{\partial a_k}{\partial z_j} = -a_k a_j$$ 4. **合并结果**: $$\frac{\partial C}{\partial z_j} = -\sum_{k} \frac{y_k}{a_k} \cdot \frac{\partial a_k}{\partial z_j}$$ 展开后仅保留有效项(因$y_k$仅在真实类别为1): $$\frac{\partial C}{\partial z_j} = a_j - y_j$$ **最终结论** 梯度为预测概率与真实标签的差值: $$\frac{\partial C}{\partial z_j} = a_j - y_j$$ 这一简洁形式极大优化了反向传播效率[^3][^2]。 --- #### **二、Sigmoid激活 + 交叉熵损失(二分类)** **公式定义** 设二分类输出概率为: $$p = \sigma(z) = \frac{1}{1 + e^{-z}}$$ 交叉熵损失函数为: $$L = -\left[ y \ln p + (1 - y) \ln(1 - p) \right]$$ **求导目标** 计算$\frac{\partial L}{\partial z}$(损失对原始输出$z$的梯度)。 **推导步骤** 1. **计算$\frac{\partial L}{\partial p}$**: $$\frac{\partial L}{\partial p} = -\left( \frac{y}{p} - \frac{1 - y}{1 - p} \right)$$ 2. **计算$\frac{\partial p}{\partial z}$**: $$\frac{\partial p}{\partial z} = p(1 - p) \quad \text{(sigmoid导数性质)}$$ 3. **链式法则合并**: $$\frac{\partial L}{\partial z} = \frac{\partial L}{\partial p} \cdot \frac{\partial p}{\partial z} = -\left( \frac{y}{p} - \frac{1 - y}{1 - p} \right) \cdot p(1 - p)$$ 4. **化简结果**: $$\frac{\partial L}{\partial z} = p - y$$ **最终结论** 梯度同样为预测值与真实值的差值: $$\frac{\partial L}{\partial z} = p - y$$ 这一结果与多分类情况一致,简化了计算[^4]。 --- ### 关键结论 - **统一性**:无论sigmoid还是softmax交叉熵损失的梯度均为预测值与真实值的差值,形式简洁。 - **高效性**:梯度直接依赖输出概率,避免了传统均方误差的复杂计算和学习速度问题[^1][^3]。
评论 79
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值