注,本文是在学习吴恩达老师(Andrew Ng)网易公开课课程的的学习总结和理解,希望与君共勉!
在之前的逻辑回归中我们有下面流程图,输入为特征向量,参数w和b,用他们计算z,然后用z再计算a,a就是y帽表示期望,最后由a和y计算出lost函数的值
逻辑回归的流程对应下面这个model,而这个model就是神经网络的一个节点Node,这个Node对应两个步骤的计算:首先计算出z值,然后计算出a值。
神经网络就是这个样子的,你可以把很多小的sigmoid单元堆叠起来构成一个神经网络,每个sigmoid单元就是一个Node。
输入为特征向量 x1 x2 x3 表示为输入层,中间层的每个节点如上图所示,表示为中间层或者叫隐藏层,最后一层只有一个节点叫输出层。
下图是神经网络的正向和反向的计算图,
1. 上标[1]表示神经网络的第一层,上标[2]表示神经网络的第二层。
2. 正向方向上,第一层和第二层都包含有z和a的计算,浅层神经网路包含了两次的逻辑回顾计算,最终得到lost函数的值。
3. 对于反向上,每层都可以计算出倒数,da[2] dz[2] dw[2] db[2] 以及 da[1] dz[1] dw[1] db[1]