softmax loss对输入的求导推导

本文详细解析了 Softmax 函数及其损失函数对输入的求导过程,通过直观的数学推导帮助读者理解卷积神经网络中损失函数梯度的计算原理。
部署运行你感兴趣的模型镜像

转载自: https://blog.youkuaiyun.com/u014380165/article/details/79632950

我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对损失函数求梯度是怎么求的真的了解吗?相信很多人不一定清楚。虽然网上的资料很多,但是质量参差不齐,常常看得眼花缭乱。为了让大家少走弯路,特地整理了下这些知识点的来龙去脉,希望不仅帮助自己巩固知识,也能帮到他人理解这些内容。

这一篇主要介绍softmax loss对输入的求导(或者叫cross entropy loss function对输入的求导),算是网络里面比较难懂的一块内容,公式较多,但是很容易看懂,需要静下心来看。

接下来我会先介绍softmax对输入求导的推导过程,然后给出softmax loss对输入的求导推导。

先推导softmax对输入的求导: 
回顾下:卷积神经网络系列之softmax,softmax loss和cross entropy介绍的softmax,就是下面这个公式: 
这里写图片描述 
N表示类别数,a表示全连接层的输出向量,aj表示向量a的第j个值。

那么如果将Si对aj求导,就是下面这个式子: 
这里写图片描述 
注意到这个式子中Si的分子的指数是ai,而求导对象是aj,因此在求导的时候就存在i==j和i!=j这两种情况。另外这里用DjSi表示Si对aj的导数,这种表示方式后面会用到。

当i==j时,求导的公式是下面这样的: 
这里写图片描述 
这个是比较基本的求导,不要觉得字符多就很难,虽然我一开始也是这么认为的。如果不熟悉的话应该要过一下简单的微积分(提示两点:1、e^ai对ai的导数还是e^ai;2、∑表示e^a1+e^a2+…+e^aN,因此对∑求导时,只有e^aj对aj的导数不为0,其他都是0)

因此,化简这个求导公式就得到下面这个式子的结果。这里第三个等式是怎么得到的呢?请看上面的第一个公式,也就是softmax那个公式,你就知道S是softmax的输出。 
这里写图片描述

当i!=j时,求导公式和前面同理是下面这样的: 
这里写图片描述

因此整合下i==j和i!=j的情况,就得到Si对aj的导数如下: 
这里写图片描述

——————————————–华丽的分割线———————————————–

前面介绍的是softmax对输入的求导推导过程,我们的目的是损失函数对输入求导,因为这个过程需要用到softmax对输入的求导,所以就先介绍了。softmax loss的公式是下面这样的,这个在博文:卷积神经网络系列之softmax,softmax loss和cross entropy里也介绍过了。我们知道模型在训练的时候先进行前向计算,得到在当前模型参数下的预测值,也就是下式的S;然后计算这次预测的损失,也就是下式的L;然后反向传递损失并计算梯度(这个梯度包含损失对参数的梯度和对该层输入的梯度);最后再正向更新参数。 
这里写图片描述

然后就是softmax对输入的求导,这里直接给出结论,因为在分割线之前都在推导这个求导的过程。 
这里写图片描述

上面两步准备好了损失函数Lsoftmax对输入的导数,然后就可以计算损失函数对输入的导数了。下面这个式子就是计算损失函数L对输入xi的导数。这个式子中的第一、二个等号比较好理解。第三个等号就用到了上面pj对xi求导的结论,第三个等号结果的左半部分是i==k的时候pk对xi的导数,求导得到的pk和原来的1/pk相乘约掉了,对yk的求和由于i==k所以只剩下yi;右半部分是i!=k的时候pk对xi的导数,注意右半部分的∑底下的k!=i。第四、五个等号也比较好理解。第六个等号是将yipi合并到∑里面。最后一个等号的成立是建立在假设∑yk=1的前提下,这个对于常见的单标签分类任务而言都是成立的。 
这里写图片描述
因此假设一个5分类任务,一张图像经过softmax层后得到的概率向量p是[0.1,0.2,0.25,0.4,0.05],真实标签y是[0,0,1,0,0],那么损失回传时该层得到的梯度就是p-y=[0.1,0.2,-0.75,0.4,0.05]。这个梯度就指导网络在下一次forward的时候更新该层的权重参数。

综上就是softmax loss对输入的求导推导

 https://blog.youkuaiyun.com/u014380165/article/details/79632950

您可能感兴趣的与本文相关的镜像

GPT-oss:20b

GPT-oss:20b

图文对话
Gpt-oss

GPT OSS 是OpenAI 推出的重量级开放模型,面向强推理、智能体任务以及多样化开发场景

### Softmax 损失函数的导数推导 对于多分类问题中的Softmax损失函数,通常采用的是交叉熵作为损失函数。设模型输出为向量 \(\mathbf{z}\),经过Softmax变换后的概率分布表示为\(\mathbf{\hat{y}}\),而真实的标签one-hot编码形式记作\(\mathbf{y}\)。 #### 软Max函数定义 给定输入向量 \(\mathbf{z}=(z_1, z_2,...,z_n)\),Softmax 函数可以被定义如下: \[ \sigma(z_i)=\frac{e^{z_i}}{\sum_{j=1}^{n}{e^{z_j}}} \] 这使得每一个分量都被映射到(0,1)区间内,并且所有分量之和等于1[^1]。 #### 交叉熵损失函数表达式 针对单个样本而言,其对应的交叉熵损失可写作: \[ L=-\sum_k y_k log (\hat{y}_k ) \] 其中 \(y_k\) 是真实类别下标的指示变量(即只有当预测类别的索引与实际相符时才取值为1),\(log(\hat{y}_k)\) 则是对该位置上通过Softmax转换得到的概率取自然对数的结果。 #### 导数推导过程 为了简化说明,在此假设只有一个训练样例的情况下考虑偏导数 \(\partial L / \partial z_i\) 的情况。根据链式法则有: \[ \frac{\partial L } {\partial z_i}= \sum _ { k }\left[\frac{\partial L } {\partial \hat{y}_{k }} * \frac{\partial \hat{y}_{k }} {\partial z_i}\right]\] 由于仅在第i项处存在非零贡献,因此上述方程进一步化简为: \[ \frac{\partial L } {\partial z_i}= -\frac{{y_i}}{{\hat{y}_i}}*\frac{\partial \hat{y}_i}{\partial z_i}-\sum_{j≠i}\frac{{y_j}}{{\hat{y}_j}}* \frac{\partial \hat{y}_j}{\partial z_i}\] 利用Softmax性质可知: - 当 \( j=i \): \[ \frac{\partial \hat{y}_i}{\partial z_i}=\hat{y}_i (1-\hat{y}_i)\] - 对于其他所有的 \( j ≠ i \): \[ \frac{\partial \hat{y}_j}{\partial z_i}=-\hat{y}_i \cdot \hat{y}_j \] 最终得出结论: \[ \frac{\partial L } {\partial z_i} = \hat{y}_i-y_i [^2]\] 这意味着对于任意维度上的梯度都可以简单地由Softmax输出减去目标值得到。 ```python def softmax_grad(s): """ 计算softmax函数关于输入s的雅克比矩阵 参数: s -- 输入数组 返回: jacobi_matrix -- 雅克比矩阵 """ # 获取softmax输出 sm = np.exp(s)/np.sum(np.exp(s)) # 初始化雅克比矩阵 n_features = len(sm) J = np.zeros((n_features,n_features)) for i in range(n_features): for j in range(n_features): if i==j: J[i][j]=sm[i]*(1-sm[j]) else: J[i][j]=-sm[i]*sm[j] return J def cross_entropy_loss_gradient(y_true,y_pred): """ 计算交叉熵损失相对于网络输出的梯度 参数: y_true -- 真实标签 onehot 编码 y_pred -- 预测结果 经过softmax处理过的概率分布 返回: gradient -- 损失函数相对于每个神经元输出的梯度 """ return -(y_true/y_pred)+1*(1-y_true)/(1-y_pred) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值