深度学习的数学-神经单元误差和反向传播

本文深入探讨神经单元误差的概念,及其在误差反向传播(BP)算法中的关键作用,展示了如何通过神经单元误差简化梯度下降算法的计算过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

排版可能稍微好一点的永久博客链接:深度学习的数学-神经单元误差和反向传播

前言

本篇博客主要讲神经单元误差的定义及其含义,以及比较重要的误差反向传播法,也就是大名鼎鼎的BP算法

正文

神经单元误差

梯度下降算法在实际应用中的难点

之前提到的梯度下降法,可以通过算偏导数的形式来获得梯度,从而以最快的速度把所有偏导数降到0
但是有一个比较麻烦的问题是,神经网络的规模比较大,将平方误差的式子化简到以神经单元的权重和偏置的表示就很麻烦了,更别说还要对每个权重和偏置做偏导数

神经单元误差的定义和含义

书中定义了神经单元误差如下,表示误差函数对某个神经单元的综合输入的偏导数

这个偏导数有什么含义呢?从式子上可以理解为 加权输入 z j l z_j^l zjl 给平方误差(损失函数)的变化率,根据最小值条件(z是关于权重、偏置的函数),在极值点的时候,这个变化率也应该是0,故可以称之为误差

神经单元误差关于权重和偏置的偏导数(重点)

然后下一步就是把这个定义融入到现有的平方误差关于权重和偏置的偏导数中去,希望能得到一个偏导数与神经单元误差的关系

平方误差的式子如下:

PS:本篇博客都用书中提到的 3 * 4 的黑白图像识别 0/1 的模型作为例子,第一层是输入层,第二层式隐藏层,第三层是输出层

在看推导之前,可以先复习一下单变量和多变量偏导数公式,可以参考之前写的一篇博客 深度学习的数学原理-复杂函数求导的链式传递及多变量近似公式

关于权重的偏导数推导

根据单变量偏导数公式(设 z 1 2 {z_1^2} z12 w 11 2 {w_{11}^2} w112的函数),即可得到如下式子

还是以3 * 4的黑白图片识别0/1为例子,根据神经单元误差的定义,以及 z 1 2 = w 11 2 x 1 + w 12 2 x 2 + . . .

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值