4
模型表示
2
( FORWARD PROPAGATION )
相对与使用循环来编码,利用向量化的方法会使得计算更
为简便。以上面的神经网络为例,试着计算第二层的值

我们令 则,
计算后添加
计算输出的值为:
我们令
则

这只是针对训练集中一个训练实例所进行的计算。如果我们要对整个训练集进行计算,
我们需要将训练集特征矩阵进行转置,使得同一个实例的特征都在同一列里。即

为了更好了了解 Neuron Networks 的工作原理,我们先把左半部分遮住
右半部分其实就是以 a0,a1,a2,a3按照 Logistic Regression 的方式输出 h(x):
其实神经网络就像是
logistic regression
,只不过我们把
logistic regression
中的输入向量
[x1~x3]
变成了中间层的
[a(2)1~a(2)3],
即
h(x)=g(Θ
(2)0
a
(2)0
+Θ
(2)1
a
(2)1
+Θ
(2)2
a
(2)2
+Θ
(2)3
a
(2)3)
我们可以把
a
0
,a
1
,a
2
,a
3
看成更为高级的特征值,也就是
x
0
,x
1
,x
2
,x
3
的进化体,并且它们是
由
x
与决定的,因为是梯度下降的,所以
a
是变化的,并且变得越来越厉害,所以这些更高
级的特征值远比仅仅将
x
次方厉害,也能更好的预测新数据。
这就是神经网络相比于逻辑回归和线性回归的优势。