2. 神经网络系列--反向传播与梯度下降

本文深入浅出地介绍了神经网络中的反向传播和梯度下降概念,通过多个生动的实例解释了这两个核心概念。文章详细讲解了线性和非线性反向传播的计算过程,并探讨了梯度下降的物理和数学理解,包括单变量和双变量函数的梯度下降。此外,还提供了实际的代码示例和迭代过程,帮助读者深入理解这两个概念在神经网络训练中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI
点击star加星不要吝啬,星越多笔者越努力。

第2章 神经网络中的三个基本概念

2.0 通俗地理解三大概念

这三大概念是:反向传播,梯度下降,损失函数。

神经网络训练的最基本的思想就是:先“猜”一个结果,我们叫预测结果a,看看这个预测结果和事先标记好的训练集中的真实结果y之间的差距,然后调整策略,再试一次,这一次就不是“猜”了,而是有依据地向正确的方向靠近。如此反复多次,一直到预测结果和真实结果之间相差无几,亦即|a-y|->0,就结束训练。

在神经网络训练中,我们把“猜”叫做初始化,可以随机,也可以根据以前的经验给定初始值。即使是“猜”,也是有技术含量的。

这三个概念是前后紧密相连的,讲到一个,肯定会牵涉到另外一个。但由于损失函数篇幅较大,我们将在下一章中再详细介绍。

下面我们举几个例子来直观的说明下这三个概念。

2.0.1 例一:猜数

甲乙两个人玩儿猜数的游戏,数字的范围是[1,50]:

甲:我猜5

乙:太小了

甲:50

乙:有点儿大

甲:30

乙:小了

在这个游戏里:

  • 目的:猜到乙心中的数字;
  • 初始化:甲猜5;
  • 前向计算:甲每次猜的新数字;
  • 损失函数:乙在根据甲猜的数来和自己心中想的数做比较,得出“大了”或“小了”的结论;
  • 反向传播:乙告诉甲“小了”、“大了”;
  • 梯度下降:甲根据乙的反馈中的含义自行调整下一轮的猜测值。

这里的损失函数是什么呢?就是“太小了”,“有点儿大”,很不精确!这个“所谓的”损失函数给出了两个信息:

  1. 方向:大了或小了
  2. 程度:“太”,“有点儿”,但是很模糊

2.0.2 例二:黑盒子

假设有一个黑盒子如图2-1。
在这里插入图片描述
图2-1 黑盒子

我们只能看到输入和输出的数值,看不到里面的样子,当输入1时,输出2.334,然后黑盒子有个信息显示:我需要输出值是4。然后我们试了试输入2,结果输出5.332,一下子比4大了很多。那么我们第一次的损失值是 2.334 − 4 = − 1.666 2.334-4=-1.666 2.3344=1.666,而二次的损失值是 5.332 − 4 = 1.332 5.332-4=1.332 5.3324=1.332

这里,我们的损失函数就是一个简单的减法,用实际值减去目标值,但是它可以告诉你两个信息:1)方向,是大了还是小了;2)差值,是0.1还是1.1。这样就给了我们下一次猜的依据。

  • 目的:猜到一个输入值,使得黑盒子的输出是4
  • 初始化:输入1
  • 前向计算:黑盒子内部的数学逻辑
  • 损失函数:在输出端,用输出值减4
  • 反向传播:告诉猜数的人差值,包括正负号和值
  • 梯度下降:在输入端,根据正负号和值,确定下一次的猜测值,goto前向计算

2.0.3 例三:打靶

小明拿了一支步枪,射击100米外的靶子。这支步枪没有准星,或者是准星有问题,或者是小明眼神儿不好看不清靶子,或者是雾很大,或者风很大,或者由于木星的影响而侧向引力场异常…反正就是遇到各种干扰因素。

第一次试枪后,拉回靶子一看,弹着点偏左了,于是在第二次试枪时,小明就会有意识地向右侧偏几毫米,再看靶子上的弹着点,如此反复几次,小明就会掌握这支步枪的脾气了。图2-2显示了小明的5次试枪过程。
在这里插入图片描述
图2-2 打靶的弹着点记录

在有监督的学习中,需要衡量神经网络输出和所预期的输出之间的差异大小。这种误差函数需要能够反映出当前网络输出和实际结果之间一种量化之后的不一致程度,也就是说函数值越大,反映出模型预测的结果越不准确。

这个例子中,小明预期的目标是全部命中靶子的中心,最外圈是1分,之后越向靶子中心分数是2,3,4分,正中靶心可以得10分。

  • 每次试枪弹着点和靶心之间的差距就叫做误差,可以用一个误差函数来表示,比如差距的绝对值,如图中的红色线。
  • 一共试枪5次,就是迭代/训练了5次的过程 。
  • 每次试枪后,把靶子拉回来看弹着点,然后调整下一次的射击角度的过程,叫做反向传播。注意,把靶子拉回来看和跑到靶子前面去看有本质的区别,后者容易有生命危险,因为还有别的射击者。一个不恰当的比喻是,在数学概念中,人跑到靶子前面去看,叫做正向微分;把靶子拉回来看,叫做反向微分。
  • 每次调整角度的数值和方向,叫做梯度。比如向右侧调整1毫米,或者向左下方调整2毫米。如图中的绿色矢量线。

上图是每次单发点射,所以每次训练样本的个数是1。在实际的神经网络训练中,通常需要多个样本,做批量训练,以避免单个样本本身采样时带来的误差。在本例中,多个样本可以描述为连发射击,假设一次可以连打3发子弹,每次的离散程度都类似,如图2-3所示。
在这里插入图片描述
图2-3 连发弹着点记录

  • 如果每次3发子弹连发,这3发子弹的弹着点和靶心之间的差距之和再除以3,叫做损失,可以用损失函数来表示。

那小明每次射击结果和目标之间的差距是多少呢?在这个例子里面,用得分来衡量的话,就是说小明得到的反馈结果从差9分,到差8分,到差2分,到差1分,到差0分,这就是用一种量化的结果来表示小明的射击结果和目标之间差距的方式。也就是误差函数的作用。因为是一次只有一个样本,所以这里采用的是误差函数的称呼。如果一次有多个样本,就要叫做损失函数了。

其实射击还不这么简单,如果是远距离狙击,还要考虑空气阻力和风速,在神经网络里,空气阻力和风速可以对应到隐藏层的概念上。

在这个例子中:

  • 目的:打中靶心;
  • 初始化:随便打一枪,能上靶就行,但是要记住当时的步枪的姿态;
  • 前向计算:让子弹飞一会儿,击中靶子;
  • 损失函数:环数,偏离角度;
  • 反向传播:把靶子拉回来看;
  • 梯度下降:根据本次的偏差,调整步枪的射击角度,goto前向计算。

损失函数的描述是这样的:

  1. 1环,偏左上45度;
  2. 6环,偏左上15度;
  3. 7环,偏左;
  4. 8环,偏左下15度;
  5. 10环。

这里的损失函数也有两个信息:

  1. 距离;
  2. 方向。

所以,梯度,是个矢量! 它应该即告诉我们方向,又告诉我们数值。

2.0.4 黑盒子的真正玩儿法

以上三个例子比较简单,容易理解,我们把黑盒子再请出来:黑盒子这件事真正的意义并不是猜测当输入是多少时输出会是4。它的实际意义是:我们要破解这个黑盒子!于是,我们会有如下破解流程:

  1. 记录下所有输入值和输出值,如表2-1。

表2-1 样本数据表

样本ID 输入(特征值) 输出(标签)
1 1 2.21
2 1.1 2.431
3 1.2 2.652
4 2 4.42
  1. 搭建一个神经网络,给出初始权重值,我们先假设这个黑盒子的逻辑是: z = x + x 2 z=x + x^2 z=x+x2
  2. 输入1,根据 z = x + x 2 z=x + x^2 z=x+x2得到输出为2,而实际的输出值是2.21,则误差值为 2 − 2.21 = − 0.21 2-2.21=-0.21 22.21=0.21,小了;
  3. 调整权重值,比如 z = 1.5 x + x 2 z=1.5x+x^2 z=1.5x+x2,再输入1.1,得到的输出为2.86,实际输出为2.431,则误差值为 2.86 − 2.431 = 0.429 2.86-2.431=0.429 2.862.431=0.429,大了;
  4. 调整权重值,比如 z = 1.2 x + x 2 z=1.2x+x^2 z=1.2x+x2再输入1.2…
  5. 调整权重值,再输入2…
  6. 所有样本遍历一遍,计算平均的损失函数值;
  7. 依此类推,重复3,4,5,6过程,直到损失函数值小于一个指标,比如0.001,我们就可以认为网络训练完毕,黑盒子“破解”了,实际是被复制了,因为神经网络并不能得到黑盒子里的真实函数体,而只是近似模拟。

从上面的过程可以看出,如果误差值是正数,我们就把权重降低一些;如果误差值为负数,则升高权重。

2.0.5 总结

简单总结一下反向传播与梯度下降的基本工作原理:

  1. 初始化;
  2. 正向计算;
  3. 损失函数为我们提供了计算损失的方法;
  4. 梯度下降是在损失函数基础上向着损失最小的点靠近而指引了网络权重调整的方向;
  5. 反向传播把损失值反向传给神经网络的每一层,让每一层都根据损失值反向调整权重;
  6. goto 2,直到精度足够好(比如损失函数值小于0.001)。

2.1 线性反向传播

2.1.1 正向计算的实例

假设有一个函数:

z = x ⋅ y (1) z = x \cdot y \tag{1} z=xy(1)

其中:

x = 2 w + 3 b (2) x = 2w + 3b \tag{2} x=2w+3b(2)

y = 2 b + 1 (3) y = 2b + 1 \tag{3} y=2b+1(3)

计算图如图2-4。
在这里插入图片描述
图2-4 简单线性计算的计算图

注意这里x, y, z不是变量,只是计算结果。w, b是才变量。因为在后面要学习的神经网络中,要最终求解的目标是w和b的值,所以在这里先预热一下。

当w = 3, b = 4时,会得到图2-5的结果。
在这里插入图片描述

图2-5 计算结果

最终的z值,受到了前面很多因素的影响:变量w,变量b,计算式x,计算式y。

2.1.2 反向传播求解w

求w的偏导

目前的z=162,如果想让z变小一些,比如目标是z=150,w应该如何变化呢?为了简化问题,先只考虑改变w的值,而令b值固定为4。

如果想解决这个问题,最笨的办法是可以在输入端一点一点的试,把w变成3.5试试,再变成3试试…直到满意为止。现在我们将要学习一个更好的解决办法:反向传播。

从z开始一层一层向回看,图中各节点关于变量w的偏导计算结果如下:

因 为 z = x ⋅ y , 其 中 x = 2 w + 3 b , y = 2 b + 1 因为z = x \cdot y,其中x = 2w + 3b,y = 2b + 1 z=xyx=2w+3by=2b+1

所以:

∂ z ∂ w = ∂ z ∂ x ⋅ ∂ x ∂ w = y ⋅ 2 = 18 (4) \frac{\partial{z}}{\partial{w}}=\frac{\partial{z}}{\partial{x}} \cdot \frac{\partial{x}}{\partial{w}}=y \cdot 2=18 \tag{4} wz=xzwx=y2=18(4)

其中:

∂ z ∂ x = ∂ ∂ x ( x ⋅ y ) = y = 9 \frac{\partial{z}}{\partial{x}}=\frac{\partial{}}{\partial{x}}(x \cdot y)=y=9 xz=x(xy)=y=9

∂ x ∂ w = ∂ ∂ w ( 2 w + 3 b ) = 2 \frac{\partial{x}}{\partial{w}}=\frac{\partial{}}{\partial{w}}(2w+3b)=2 wx=w(2w+3b)=2
在这里插入图片描述

图2-6 对w的偏导求解过程

图2-6其实就是链式法则的具体表现,z的误差通过中间的x传递到w。如果不是用链式法则,而是直接用z的表达式计算对w的偏导数,会是什么样呢?我们来试验一下。

根据公式1、2、3,我们有:

z = x ⋅ y = ( 2 w + 3 b ) ( 2 b + 1 ) = 4 w b + 2 w + 6 b 2 + 3 b (5) z=x \cdot y=(2w+3b)(2b+1)=4wb+2w+6b^2+3b \tag{5} z=xy=(2w+3b)(2b+1)=4wb+2w+6b2+3b(5)

对上式求w的偏导:

∂ z ∂ w = 4 b + 2 = 4 ⋅ 4 + 2 = 18 (6) {\partial z \over \partial w}=4b+2=4 \cdot 4 + 2=18 \tag{6} wz=4b+2=44+2=18(6)

公式4和公式6的结果完全一致!所以,请大家相信链式法则的科学性。

求w的具体变化值

公式4和公式6的含义是:当w变化一点点时,z会发生w的变化值的18倍的变化。记住我们的目标是让z=150,目前在初始状态时是162,所以,问题转化为:当需要z从162变到150时,w需要变化多少?

既然:

Δ z = 18 ⋅ Δ w \Delta z = 18 \cdot \Delta w Δz=18Δw

则:

Δ w = Δ z 18 = 162 − 150 18 = 0.6667 \Delta w = {\Delta z \over 18}={162-150 \over 18}= 0.6667 Δw=18Δz=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值