文章目录
- 1.2.1 二分分类(Binary Classification)
- 1.2.2逻辑回归(Logistic Regression)
- 1.2.3 逻辑回归损失函数(Logistic Regression Cost Function)
- 1.2.4 梯度下降(Gradient Descent)
- 1.2.5 导数(Derivatives)
- 1.2.6 更多导数的例子(More Derivative Examples)
- 1.2.7 计算图(Computation graph)
- 1.2.8 计算图的导数计算(Derivatives with a Computation Graph)
- 1.2.9 logistic 回归中的梯度下降法(Logistic Regression Gradient Descent)
- 1.2.10 m m m 个样本的梯度下降(Gradient descent on m examples)
- 1.2.11 总结(Summary)
上节课我们主要对深度学习(Deep Learning)的概念做了简要的概述。我们先从房价预测的例子出发,建立了标准的神经网络(Neural Network)模型结构。然后从监督式学习入手,介绍了Standard NN,CNN和RNN三种不同的神经网络模型。接着介绍了两种不同类型的数据集:Structured Data和Unstructured Data。最后,我们解释了近些年来深度学习性能优于传统机器学习的原因,归结为三个因素:Data,Computation和Algorithms。本节课,我们将开始介绍神经网络的基础:
逻辑回归
(Logistic Regression)。通过对逻辑回归模型结构的分析,为我们后面学习神经网络模型打下基础。
1.2.1 二分分类(Binary Classification)
我们知道逻辑回归模型一般用来解决二分类
(Binary Classification)问题。二分类就是输出y只有
{
0
,
1
}
\{0,1\}
{0,1}两个离散值(也有
{
−
1
,
1
}
\{-1,1\}
{−1,1}的情况)。我们以一个图像识别问题为例,判断图片中是否有猫存在,
0
0
0代表noncat,
1
1
1代表cat。主要是通过这个例子简要介绍神经网络模型中一些标准化的、有效率的处理方法和notations。

如上图所示,这是一个典型的二分类问题。一般来说,彩色图片包含RGB三个通道。例如该cat图片的尺寸为(64,64,3)。在神经网络模型中,我们首先要将图片输入 x x x(维度是(64,64,3))转化为一维的特征向量(feature vector)。方法是每个通道一行一行取,再连接起来。由于 64 × 64 × 3 = 12288 64\times 64\times 3=12288 64×64×3=12288,则转化后的输入特征向量维度为(12288,1)。此特征向量 x x x是列向量,维度一般记为 n x n_x nx。
如果训练样本共有 m m m张图片,那么整个训练样本 X X X组成了矩阵,维度是 ( n x , m ) (n_x,m) (nx,m) 。注意,这里矩阵 X X X的行 n x n_x nx代表了每个样本 x ( i ) x^{(i)} x(i)特征个数,列 m m m代表了样本个数。这里,Andrew解释了 X X X的维度之所以是 ( n x , m ) (n_x,m) (nx,m) 而不是 ( m , n x ) (m,n_x) (m,nx) 的原因是为了之后矩阵运算的方便。算是Andrew给我们的一个小小的经验吧。而所有训练样本的输出 Y Y Y也组成了一维的行向量,写成矩阵的形式后,它的维度就是 ( 1 , m ) (1, m) (1,m)。
1.2.2逻辑回归(Logistic Regression)
接下来我们就来介绍如何使用逻辑回归来解决二分类问题。逻辑回归中,预测值
h
^
=
P
(
y
=
1
∣
x
)
\hat{h}=P(y=1|x)
h^=P(y=1∣x)表示为1的概率,取值范围在
[
0
,
1
]
[0,1]
[0,1]之间。这是其与二分类模型不同的地方。使用线性模型,引入参数
w
w
w 和
b
b
b 。权重
w
w
w 的维度是
(
n
x
,
1
)
(n_x, 1)
(nx,1) ,
x
x
x 的维度是
(
n
x
,
1
)
(n_x, 1)
(nx,1),
b
b
b 是一个常数项。这样,逻辑回归的线性预测输出可以写成:
y
^
=
w
T
x
+
b
\hat{y}=w^Tx+b
y^=wTx+b
值得注意的是,很多其它机器学习资料中,可能把常数
b
b
b 当做
w
0
w_0
w0 处理,并引入
x
0
=
1
x_0=1
x0=1。这样从维度上来看,
x
x
x 和
w
w
w 都会增加一维。但在本课程中,为了简化计算和便于理解,Andrew建议还是使用上式这种形式将
w
w
w 和
b
b
b 分开比较好。
上式的线性输出区间为整个实数范围,而逻辑回归要求输出范围在
[
0
,
1
]
[0,1]
[0,1]之间,所以还需要对上式的线性函数输出进行处理。方法是引入Sigmoid函数
,让输出限定在
[
0
,
1
]
[0,1]
[0,1]之间。这样,逻辑回归的预测输出就可以完整写成:
y
^
=
S
i
g
m
o
i
d
(
w
T
+
b
)
=
σ
(
w
T
x
+
b
)
\hat{y}=Sigmoid(w^T+b)=\sigma(w^Tx+b)
y^=Sigmoid(wT+b)=σ(wTx+b)
Sigmoid函数是一种非线性的S型函数,输出被限定在
[
0
,
1
]
[0,1]
[0,1]之间,通常被用在神经网络中当作激活函数
(Activation function)使用。Sigmoid函数的表达式和曲线如下所示:
S
i
g
m
o
i
d
(
z
)
=
1
1
+
e
−
z
Sigmoid(z)=\frac{1}{1+e^{-z}}
Sigmoid(z)=1+e−z1
从Sigmoid函数曲线可以看出,当
z
z
z 值很大时,函数值趋向于
1
1
1 ;当
z
z
z 值很小时,函数值趋向于
0
0
0 。且当
z
=
0
z=0
z=0 时,函数值为
0.5
0.5
0.5 。还有一点值得注意的是,Sigmoid函数的一阶导数可以用其自身表示:
σ
′
(
z
)
=
σ
(
z
)
(
1
−
σ
(
z
)
)
\sigma ^{'}(z)=\sigma (z)(1-\sigma(z))
σ′(z)=σ(z)(1−σ(z))
这样,通过Sigmoid函数,就能够将逻辑回归的输出限定在
[
0
,
1
]
[0,1]
[0,1]之间了。
1.2.3 逻辑回归损失函数(Logistic Regression Cost Function)
逻辑回归中,
w
w
w 和
b
b
b 都是未知参数,需要反复训练优化得到。因此,我们需要定义一个cost function
,包含了参数
w
w
w 和
b
b
b 。通过优化cost function,当cost function取值最小时,得到对应的
w
w
w 和
b
b
b 。
提一下,对于 m m m 个训练样本,我们通常使用上标来表示对应的样本。例如 ( x ( i ) , y ( i ) ) (x^{(i)}, y^{(i)}) (x(i),y(i)) 表示第 i i i 个样本。
如何定义所有
m
m
m 个样本的cost function呢?先从单个样本出发,我们希望该样本的预测值
y
^
\hat{y}
y^ 真实值越相似越好。我们把单个样本的cost function用Loss function
来表示,根据以往经验,如果使用平方错误
(squared error)来衡量,如下所示:
L
(
y
^
,
y
)
=
1
2
(
y
^
−
y
)
2
L(\hat{y}, y)=\frac{1}{2}(\hat{y}-y)^2
L(y^,y)=21(y^−y)2
但是,对于逻辑回归,我们一般不使用平方错误来作为Loss function。原因是这种Loss function一般是non-convex(非凸)的。non-convex函数在使用梯度下降算法时,容易得到局部最小值(local minumum),即局部最优化。而我们最优化的目标是计算得到全局最优化(Global optimization)。因此,我们一般选择的Loss function应该是convex的。
Loss function的原则和目的就是要衡量预测输出
y
^
\hat{y}
y^ 与真实样本输出的
y
y
y 接近程度。平方错误其实也可以,只是它是non-convex的,不利于使用梯度下降算法来进行全局优化。因此,我们可以构建另外一种Loss function,且是convex的,如下所示:
L
(
y
^
,
y
)
=
−
(
y
l
o
g
y
^
+
(
1
−
y
)
l
o
g
(
1
−
y
^
)
)
L(\hat{y},y)=-(y\space log\space \hat{y}+(1-y)\space log(1-\hat{y}))
L(y^,y)=−(y log y^+(1−y) log(1−y^))
我们来分析一下这个Loss function,它是衡量错误大小的,Loss function越小越好。
- 当
y
=
1
y=1
y=1 时,
L
(
y
^
,
y
)
=
−
l
o
g
y
^
L(\hat{y} ,y)=−log\space \hat{y}
L(y^,y)=−log y^ 。
- 如果 y ^ \hat{y} y^ 越接近 1 1 1 , L ( y ^ , y ) ≈ 0 L(\hat{y},y)\approx 0 L(y^,y)≈0 ,表示预测效果越好;
- 如果 y ^ \hat{y} y^ 越接近 0 0 0 , L ( y ^ , y ) ≈ + ∞ L(\hat{y}, y)\approx +\infin L(y^,y)≈+∞ ,表示预测效果越差。
- 当
y
=
0
y=0
y=0 时,
L
(
y
^
,
y
)
=
−
l
o
g
(
1
−
y
^
)
L(\hat{y} ,y)=−log(1-\hat{y})
L(y^,y)=−log(1−y^) 。
- 如果 y ^ \hat{y} y^ 越接近 0 0 0 , L ( y ^ , y ) ≈ 0 L(\hat{y},y)\approx 0 L(y^,y)≈0 ,表示预测效果越好;
- 如果 y ^ \hat{y} y^ 越接近 1 1 1 , L ( y ^ , y ) ≈ + ∞ L(\hat{y}, y)\approx +\infin L(y^,y)≈+∞ ,表示预测效果越差。
这正是我们希望Loss function所实现的功能。因此,这个Loss function能够很好地反映预测输出 y ^ \hat{y} y^ 与真实样本输出 y y y 的接近程度,越接近的话,其Loss function值越小。而且这个函数是convex的。上面我们只是简要地分析为什么要使用这个Loss function,后面的课程中,我们将详细推导该Loss function是如何得到的。并不是凭空捏造的哦。。。
还要提一点的是,上面介绍的Loss function是针对单个样本的。那对于 m m m 个样本,我们定义Cost function,Cost function是 m m m 个样本的Loss function的平均值,反映了 m m m 个样本的预测输出 y ^ \hat{y} y^ 与真实样本输出 y y y 的平均接近程度。Cost function可表示为:
J
(
w
,
b
)
=
1
m
∑
i
=
1
m
L
(
y
^
(
i
)
,
y
(
i
)
)
=
−
1
m
∑
i
=
1
m
[
y
(
i
)
log
y
^
(
i
)
+
(
1
−
y
(
i
)
)
log
(
1
−
y
^
(
i
)
)
]
J(w, b)=\frac{1}{m} \sum_{i=1}^{m} L\left(\hat{y}^{(i)}, y^{(i)}\right)=-\frac{1}{m} \sum_{i=1}^{m}\left[y^{(i)} \log \hat{y}^{(i)}+\left(1-y^{(i)}\right) \log \left(1-\hat{y}^{(i)}\right)\right]
J(w,b)=m1i=1∑mL(y^(i),y(i))=−m1i=1∑m[y(i)logy^(i)+(1−y(i))log(1−y^(i))]
Cost function已经推导出来了,Cost function是关于待求系数
w
w
w 和
b
b
b 的函数。我们的目标就是迭代计算出最佳的
w
w
w 和
b
b
b 值,最小化Cost function,让Cost function尽可能地接近于零。
其实逻辑回归问题可以看成是一个简单的神经网络,只包含一个神经元。这也是我们这里先介绍逻辑回归的原因。
1.2.4 梯度下降(Gradient Descent)
我们已经掌握了Cost function的表达式,接下来将使用梯度下降(Gradient Descent)算法来计算出合适的 w w w 和 b b b 值,从而最小化 m m m 个训练样本的Cost function,即 J ( w , b ) J(w, b) J(w,b)。
由于 J ( w , b ) J(w, b) J(w,b) 是 convex function,梯度下降算法是先随机选择一组参数 w w w 和 b b b 值,然后每次迭代的过程中分别沿着 w w w 和 b b b 的梯度(偏导数)的反方向前进一小步,不断修正 w w w 和 b b b 。每次迭代更新 w w w 和 b b b 后,都能让 J ( w , b ) J(w, b) J(w,b) 更接近全局最小值。梯度下降的过程如下图所示。

梯度下降算法每次迭代更新,w和b的修正表达式为:
w
:
=
w
−
α
∂
J
(
w
,
b
)
∂
w
b
:
=
b
−
α
∂
J
(
w
,
b
)
∂
b
\begin{array}{l} w:=w-\alpha \frac{\partial J(w, b)}{\partial w} \\ b:=b-\alpha \frac{\partial J(w, b)}{\partial b} \end{array}
w:=w−α∂w∂J(w,b)b:=b−α∂b∂J(w,b)
上式中,
α
\alpha
α 是学习因子(learning rate),表示梯度下降的步进长度。
α
\alpha
α 越大,
w
w
w 和
b
b
b 每次更新的“步伐”更大一些;
α
\alpha
α 越小,
w
w
w 和
b
b
b 每次更新的“步伐”更小一些。在程序代码中,我们通常使用
d
w
dw
dw 来表示
∂
J
(
w
,
b
)
∂
w
\frac{\partial J(w, b)}{\partial w}
∂w∂J(w,b),用
d
b
db
db 来表示
∂
J
(
w
,
b
)
∂
b
\frac{\partial J(w, b)}{\partial b}
∂b∂J(w,b)。微积分里,
d
f
d
x
\frac{df}{dx}
dxdf表示对单一变量求导,
∂
f
∂
x
\frac{\partial f}{\partial x}
∂x∂f表示对多个变量中某个变量求偏导数。
梯度下降算法能够保证每次迭代w和b都能向着J(w,b)全局最小化的方向进行。其数学原理主要是运用泰勒一阶展开来证明的。
1.2.5 导数(Derivatives)
这一部分的内容非常简单,Andrew主要是给对微积分、求导数不太清楚的同学介绍的。梯度或者导数一定程度上可以看成是斜率。关于求导数的方法这里就不再赘述了。
1.2.6 更多导数的例子(More Derivative Examples)
Andrew给出了更加复杂的求导数的例子,略。
1.2.7 计算图(Computation graph)
整个神经网络的训练过程实际上包含了两个过程:正向传播
(Forward Propagation)和反向传播
(Back Propagation)。正向传播是从输入到输出,由神经网络计算得到预测输出的过程;反向传播是从输出到输入,对参数w和b计算梯度的过程。下面,我们用计算图(Computation graph)的形式来理解这两个过程。
举个简单的例子,假如Cost function为
J
(
a
,
b
,
c
)
=
3
(
a
+
b
c
)
J(a,b,c)=3(a+bc)
J(a,b,c)=3(a+bc)
包含 a a a, b b b, c c c 三个变量。我们用 u u u 表示 b c bc bc , v v v 表示 a + u a+u a+u ,则 J = 3 v J=3v J=3v 。它计算图可以写成如下图所示:

令 a = 5 , b = 3 , c = 2 a=5,b=3,c=2 a=5,b=3,c=2,则 u = b c = 6 , v = a + u = 11 , J = 3 v = 33 u=bc=6,v=a+u=11,J=3v=33 u=bc=6,v=a+u=11,J=3v=33 。计算图中,这种从左到右,从输入到输出的过程就对应着神经网络或者逻辑回归中输入与权重经过运算计算得到Cost function的正向过程。
1.2.8 计算图的导数计算(Derivatives with a Computation Graph)
上一部分介绍的是计算图的正向传播(Forward Propagation),下面我们来介绍其反向传播
(Back Propagation),即计算输出对输入的偏导数。
还是上个计算图的例子,输入参数有 3 3 3 个,分别是 a , b , c a,b,c a,b,c 。
首先计算
J
J
J 对参数
a
a
a 的偏导数。从计算图上来看,从右到左,
J
J
J 是
v
v
v 的函数,
v
v
v 是
a
a
a 的函数。则利用求导技巧,可以得到:
∂
J
∂
a
=
∂
J
∂
v
⋅
∂
v
∂
a
=
3
⋅
1
=
3
\frac{\partial J}{\partial a}=\frac{\partial J}{\partial v} \cdot \frac{\partial v}{\partial a}=3 \cdot 1=3
∂a∂J=∂v∂J⋅∂a∂v=3⋅1=3
根据这种思想,然后计算
J
J
J 对参数
b
b
b 的偏导数。从计算图上来看,从右到左,
J
J
J 是
v
v
v 的函数,
v
v
v 是
u
u
u 的函数,
u
u
u 是
b
b
b 的函数。可以推导:
∂
J
∂
b
=
∂
J
∂
v
⋅
∂
v
∂
u
⋅
∂
u
∂
b
=
3
⋅
1
⋅
c
=
3
⋅
1
⋅
2
=
6
\frac{\partial J}{\partial b}=\frac{\partial J}{\partial v} \cdot \frac{\partial v}{\partial u} \cdot \frac{\partial u}{\partial b}=3 \cdot 1 \cdot c=3 \cdot 1 \cdot 2=6
∂b∂J=∂v∂J⋅∂u∂v⋅∂b∂u=3⋅1⋅c=3⋅1⋅2=6
最后计算
J
J
J 对参数
c
c
c 的偏导数。仍从计算图上来看,从右到左,
J
J
J 是
v
v
v 的函数,
v
v
v 是
u
u
u 的函数,
u
u
u 是
c
c
c 的函数。可以推导:
∂
J
∂
c
=
∂
J
∂
v
⋅
∂
v
∂
u
⋅
∂
u
∂
c
=
3
⋅
1
⋅
b
=
3
⋅
1
⋅
3
=
9
\frac{\partial J}{\partial c}=\frac{\partial J}{\partial v} \cdot \frac{\partial v}{\partial u} \cdot \frac{\partial u}{\partial c}=3 \cdot 1 \cdot b=3 \cdot 1 \cdot 3=9
∂c∂J=∂v∂J⋅∂u∂v⋅∂c∂u=3⋅1⋅b=3⋅1⋅3=9
为了统一格式,在程序代码中,我们使用
d
a
,
d
b
,
d
c
da,db,dc
da,db,dc 来表示
J
J
J 对参数
a
,
b
,
c
a,b,c
a,b,c 的偏导数。

1.2.9 logistic 回归中的梯度下降法(Logistic Regression Gradient Descent)
现在,我们将对逻辑回归进行梯度计算。对单个样本而言,逻辑回归Loss function表达式如下:
z
=
w
T
x
+
b
y
^
=
a
=
σ
(
z
)
L
(
a
,
y
)
=
−
(
y
log
(
a
)
+
(
1
−
y
)
log
(
1
−
a
)
)
\begin{array}{c} z=w^{T} x+b \\ \hat{y}=a=\sigma(z) \\ L(a, y)=-(y \log (a)+(1-y) \log (1-a)) \end{array}
z=wTx+by^=a=σ(z)L(a,y)=−(ylog(a)+(1−y)log(1−a))
首先,该逻辑回归的正向传播过程非常简单。根据上述公式,例如输入样本x有两个特征
(
x
1
,
x
2
)
(x_1,x_2)
(x1,x2),相应的权重
w
w
w 维度也是
2
2
2 ,即
(
w
1
,
w
2
)
(w1,w2)
(w1,w2) 。则
z
=
w
1
x
1
+
w
2
x
2
+
b
z=w_1x_1+w_2x_2+b
z=w1x1+w2x2+b ,最后的Loss function如下所示:

然后,计算该逻辑回归的反向传播过程,即由Loss function计算参数
w
w
w 和
b
b
b 的偏导数。推导过程如下:
d
a
=
∂
L
∂
a
=
−
y
a
+
1
−
y
1
−
a
d
z
=
∂
L
∂
z
=
∂
L
∂
a
⋅
∂
a
∂
z
=
(
−
y
a
+
1
−
y
1
−
a
)
⋅
a
(
1
−
a
)
=
a
−
y
\begin{array}{c} d a=\frac{\partial L}{\partial a}=-\frac{y}{a}+\frac{1-y}{1-a} \\ d z=\frac{\partial L}{\partial z}=\frac{\partial L}{\partial a} \cdot \frac{\partial a}{\partial z}=\left(-\frac{y}{a}+\frac{1-y}{1-a}\right) \cdot a(1-a)=a-y \end{array}
da=∂a∂L=−ay+1−a1−ydz=∂z∂L=∂a∂L⋅∂z∂a=(−ay+1−a1−y)⋅a(1−a)=a−y
知道了
d
z
dz
dz 之后,就可以直接对
w
1
w_1
w1,
w
2
w_2
w2 和
b
b
b 进行求导了。
d
w
1
=
∂
L
∂
w
1
=
∂
L
∂
z
⋅
∂
z
∂
w
1
=
x
1
⋅
d
z
=
x
1
(
a
−
y
)
d
w
2
=
∂
L
∂
w
2
=
∂
L
∂
z
⋅
∂
z
∂
w
2
=
x
2
⋅
d
z
=
x
2
(
a
−
y
)
d
b
=
∂
L
∂
b
=
∂
L
∂
z
⋅
∂
z
∂
b
=
1
⋅
d
z
=
a
−
y
\begin{array}{l} d w_{1}=\frac{\partial L}{\partial w_{1}}=\frac{\partial L}{\partial z} \cdot \frac{\partial z}{\partial w_{1}}=x_{1} \cdot d z=x_{1}(a-y) \\ d w_{2}=\frac{\partial L}{\partial w_{2}}=\frac{\partial L}{\partial z} \cdot \frac{\partial z}{\partial w_{2}}=x_{2} \cdot d z=x_{2}(a-y) \\ d b=\frac{\partial L}{\partial b}=\frac{\partial L}{\partial z} \cdot \frac{\partial z}{\partial b}=1 \cdot d z=a-y \end{array}
dw1=∂w1∂L=∂z∂L⋅∂w1∂z=x1⋅dz=x1(a−y)dw2=∂w2∂L=∂z∂L⋅∂w2∂z=x2⋅dz=x2(a−y)db=∂b∂L=∂z∂L⋅∂b∂z=1⋅dz=a−y
则梯度下降算法可表示为:
w
1
:
=
w
1
−
α
d
w
1
w
2
:
=
w
2
−
α
d
w
2
b
:
=
b
−
α
d
b
\begin{array}{c} w_1:=w_1-\alpha dw_1\\ w_2:=w_2-\alpha dw_2\\ b:=b-\alpha \space db\\ \end{array}
w1:=w1−αdw1w2:=w2−αdw2b:=b−α db
1.2.10 m m m 个样本的梯度下降(Gradient descent on m examples)
上一部分讲的是对单个样本求偏导和梯度下降。如果有
m
m
m 个样本,其Cost function表达式如下(取平均数):
z
(
i
)
=
w
T
x
(
i
)
+
b
y
^
(
i
)
=
a
(
i
)
=
σ
(
z
(
i
)
)
J
(
w
,
b
)
=
1
m
∑
i
=
1
m
L
(
y
^
(
i
)
,
y
(
i
)
)
=
−
1
m
∑
i
=
1
m
[
y
(
i
)
log
y
^
(
i
)
+
(
1
−
y
(
i
)
)
log
(
1
−
y
^
(
i
)
)
]
\begin{array}{c} z^{(i)}=w^{T} x^{(i)}+b \\ \hat{y}^{(i)}=a^{(i)}=\sigma\left(z^{(i)}\right) \\ J(w, b)=\frac{1}{m} \sum_{i=1}^{m} L\left(\hat{y}^{(i)}, y^{(i)}\right)=-\frac{1}{m} \sum_{i=1}^{m}\left[y^{(i)} \log \hat{y}^{(i)}+\left(1-y^{(i)}\right) \log \left(1-\hat{y}^{(i)}\right)\right] \end{array}
z(i)=wTx(i)+by^(i)=a(i)=σ(z(i))J(w,b)=m1∑i=1mL(y^(i),y(i))=−m1∑i=1m[y(i)logy^(i)+(1−y(i))log(1−y^(i))]
Cost function关于
w
w
w 和
b
b
b 的偏导数可以写成和平均的形式:
d
w
1
=
1
m
∑
i
=
1
m
x
1
(
i
)
(
a
(
i
)
−
y
(
i
)
)
d
w
2
=
1
m
∑
i
=
1
m
x
2
(
i
)
(
a
(
i
)
−
y
(
i
)
)
d
b
=
1
m
∑
i
=
1
m
(
a
(
i
)
−
y
(
i
)
)
\begin{array}{c} d w_{1}=\frac{1}{m} \sum_{i=1}^{m} x_{1}^{(i)}\left(a^{(i)}-y^{(i)}\right) \\ d w_{2}=\frac{1}{m} \sum_{i=1}^{m} x_{2}^{(i)}\left(a^{(i)}-y^{(i)}\right) \\ d b=\frac{1}{m} \sum_{i=1}^{m}\left(a^{(i)}-y^{(i)}\right) \end{array}
dw1=m1∑i=1mx1(i)(a(i)−y(i))dw2=m1∑i=1mx2(i)(a(i)−y(i))db=m1∑i=1m(a(i)−y(i))
这样,每次迭代中
w
w
w 和
b
b
b 的梯度有
m
m
m 个训练样本计算平均值得到。其算法流程如下所示:
J=0; dw1=0; dw2=0; db=0;
for i = 1 to m
z(i) = wx(i)+b;
a(i) = sigmoid(z(i));
J += -[y(i)log(a(i))+(1-y(i))log(1-a(i));
dz(i) = a(i)-y(i);
dw1 += x1(i)dz(i);
dw2 += x2(i)dz(i);
db += dz(i);
J /= m;
dw1 /= m;
dw2 /= m;
db /= m;
经过每次迭代后,根据梯度下降算法,
w
w
w 和
b
b
b 都进行更新:
w
1
:
=
w
1
−
α
d
w
1
w
2
:
=
w
2
−
α
d
w
2
b
:
=
b
−
α
d
b
\begin{aligned} w_{1}&:=w_{1}-\alpha d w_{1} \\ w_{2}&:=w_{2}-\alpha d w_{2} \\ b&:=b-\alpha d b \end{aligned}
w1w2b:=w1−αdw1:=w2−αdw2:=b−αdb
值得一提的是,在上述的梯度下降算法中,我们是利用for循环对每个样本进行
d
w
1
dw_1
dw1,
d
w
2
dw_2
dw2 和
d
b
db
db 的累加计算最后再求平均数的。在深度学习中,样本数量
m
m
m 通常很大,使用for循环会让神经网络程序运行得很慢。所以,我们应该尽量避免使用for循环操作,而使用矩阵运算,能够大大提高程序运行速度。关于矢量化
(vectorization)的内容我们放在下次笔记中再说。
1.2.11 总结(Summary)
本节课的内容比较简单,主要介绍了神经网络的基础——逻辑回归。首先,我们介绍了二分类问题,以图片为例,将多维输入 x x x 转化为feature vector,输出 y y y 只有 { 0 , 1 } \{0,1\} {0,1} 两个离散值。接着,我们介绍了逻辑回归及其对应的Cost function形式。然后,我们介绍了梯度下降算法,并使用计算图的方式来讲述神经网络的正向传播和反向传播两个过程。最后,我们在逻辑回归中使用梯度下降算法,总结出最优化参数 w w w 和 b b b 的算法流程。