一、概述
以监督学习为例,假设有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型
,它具有参数
,可以以此参数来拟合训练数据。
最简单的神经网络仅由一个“神经元”构成,以下即是这个“神经元”的示意图:
图1 单个神经元构成的网络
这个“神经元”是一个以 及bias
为输入值的运算单元,其输出为
,其中函数
被称为“激活函数”。通常,激活函数的选择有以下3种:tanh函数、sigmoid函数、rectified linear函数,函数图像如图2所示。
图2 激活函数对应的图形
本文选用sigmoid函数作为激活函数。
(1)
可以看出,这个单一“神经元”的输入-输出映射关系其实就是一个logistic regression。
二、神经网络模型
神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:
图3 包含一个隐层的神经网络
神经网络最左边的一层叫做输入层,最右的一层叫做输出层(可包含多个输出)。中间所有节点组成的一层叫做隐藏层(可添加多个隐层),因为我们不能在训练样本集中观测到它们的值。
用 来表示网络的层数,本例中
,将第
层记为
,于是
是输入层,输出层是
。本例神经网络有参数
,其中
是第
层第
单元与第
层第
单元之间的联接参数(其实就是连接线上的权重,注意标号顺序),
是第
层第
单元的偏置项。因此在本例中,
,
。注意,没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出
。同时,我们用
表示第
层的节点数(偏置单元不计在内)。
三、求解神经网络
在给定训练数据集的情况下,可以构建一个神经网络来对这些数据进行拟合。构建过程主要分为2步:1)前向传播 2)反向求导。在前向传播过程中,给定权值和bias矩阵,可以得到给定样本对应的预测值(激活值);在反向求导过程,通过样本预测值与样本真实值之间的误差来不断修正网络参数,直至收敛。
(1)前向传播
用 表示第
层第
单元的激活值。当
时,
,也就是第
个输入值(输入值的第
个特征)。对于给定参数集合
,神经网络就可以按照函数
来计算每一层每个节点的输出结果。本例神经网络的计算步骤如下:
-
(2)
-
用
表示第
层第
单元输入加权和(包括偏置单元),比如,
-
,则
(3)
公式(2)叫作前向传播公式,用矩阵来表示更为简洁:
(4)
(2)反向传播
由于前向传播阶段的权值和bias是随机初始化的,因此需要根据网络输出误差不断的对参数进行修正。设整个神经网络的损失函数为
,梯度下降法中每一次迭代都按照如下公式对参数
和
进行更新:
(5)
其中 是学习速率。而反向传播算法可以有效的计算公式(5)中的偏导数。
根据求导的链式法则有:
(6)
记
(后两项通过前向传播公式计算得到)
残差表明了该节点对最终输出值的残差产生了多少影响。隐层可用如下公式递推求出残差 [根据维数相容原理作出了调整]:
(7)
输出层残差计算公式如下:
(8)
反向传播的整个流程如下:
1)根据公式(4)进行前向传播计算,得到隐层和输出层的激活值。
2)对输出层(第层),根据公式(8)计算残差。
3)对 的各个层,根据公式(7)计算残差。
4)根据公式(6)计算各层参数和
的偏导数。
5)根据公式(5)更新神经网络的各层参数。
现在,重复梯度下降法的迭代步骤来减小代价函数 的值,进而求解我们的神经网络。