cs231n笔记(6)--反向求导

本文解释了反向传播(BP)算法中的梯度下降原理,通过调整神经网络中的权重来最小化损失函数,实现对识别误差的优化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.理解

      反向求导在BP算法中也叫梯度下降,我对其的理解就是为了让最后的损失函数损失最小化(即识别误差最小),如何让最后误差最小呢?由于导数在几何上的意义是函数上升或者下降的趋势,那么我们可以把整个人工神经网络+损失函数的模型看成是一步一步的函数叠加的结果,输入为图像,输出为损失。那么每一个神经元(激活函数)以及之后损失函数都会对最后的误差结果产生影响。反向求偏导后(链式法则,每一步都对输入x求偏导)每一个神经元和误差函数都会有与之对应的导数,我们可以简单理解为当导数为正,有输入时(默认输入都为正去理解),此结点会让最后输出的误差变大,此后我们调节时就将此结点对应W变小。当导数为负时相反。举个简单例子:


绿子为输入输出,红字为相应结点导数。

二.

      当我们训练整个模型时,一步一步根据每个结点的导数让损失下降时,就是把最高的损失降到最低,好像是下山一样。所以称之为梯度下降:



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值