卷积神经网络系列之softmax loss对输入的求导推导

本文详细介绍了卷积神经网络中softmax loss对输入的求导过程,包括softmax函数对输入的导数推导及softmax loss对输入的导数计算。通过对不同情况的分析,得出损失函数对输入导数的最终表达式,帮助读者深入理解CNN中的损失函数和反向传播。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对损失函数求梯度是怎么求的真的了解吗?相信很多人不一定清楚。虽然网上的资料很多,但是质量参差不齐,常常看得眼花缭乱。为了让大家少走弯路,特地整理了下这些知识点的来龙去脉,希望不仅帮助自己巩固知识,也能帮到他人理解这些内容。

这一篇主要介绍softmax loss对输入的求导(或者叫cross entropy loss function对输入的求导),算是网络里面比较难懂的一块内容,公式较多,但是很容易看懂,需要静下心来看。

接下来我会先介绍softmax对输入求导的推导过程,然后给出softmax loss对输入的求导推导。

先推导softmax对输入的求导:
回顾下:卷积神经网络系列之softmax,softmax loss和cross entropy介绍的softmax,就是下面这个公式:
这里写图片描述
N表示类别数,a表示全连接层的输出向量,aj表示向量a的第j个值。

那么如果将Si对aj求导,就是下面这个式子:

评论 25
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值