神经网络(Neural Networks)其实是一个很古老的想法,在提出来之后,沉寂了很长一段时间。而现在,神经网络是许多机器学习问题的首选算法。
一、神经网络的表示(The Representation for Neural Networks)
1、运用神经网络的动机(Motivations)
非线性的假设函数(Non-linear Hypothesis)
之前已经学习了两个机器学习中常用的方法:线性回归和逻辑回归。那为什么还需要神经网络这个东西呢。我们先来举一个监督学习中的分类问题的例子,假设有如下的训练集:
我们的目的是进行分类,假若如图所示的训练集一样,只有两个特征 x1,x2 ,通过逻辑回归很容易就能得到一个决策边界:
然而,当特征非常多的时候,我们必须用足够高次的项来保证假设函数的准确率,例如需要用100个特征来预测房价,且最高次项为6次,在逻辑回归中,假设函数为:
hθ(x)=g(θTX)=11+e−θTX
其中
g(θTX)=g(θ0+θ1x1+θ2x2+...+θkx1x2+θk+1x1x3+...+θnx61+θn+1x62+...)
从上面这个式子可以看出,如果要用
梯度下降或者
Normal Equation方法来得到
θj
的值,势必需要巨大的计算量。就算只有100个特征,如果只用最高项为二次项的函数
g(x)
,也会有
C2100+201
个
θ
项。所以当遇到特征数很多的情况时,我们需要另外一种方法,也就是
神经网络(Neural Networks)
大脑和神经元(Brain and Neurons)
再来讲讲有关大脑的东西,根据一些神经科学家的研究实验发现,当一个感知器官的与对应的大脑皮层区域的连接被切断时,如果把这个感受器和另一个皮层区域连接起来,那么这个皮层区域将学会感知新的东西。举个例子:
如上图,如果把听觉感受器和听觉皮层区域的连接切断,然后把听觉感受器和视觉皮层区域相连,则视觉皮层区域也能学会处理听到的东西。
再如:
如果把触觉感受器和触觉皮层区域的连接切断,然后把触觉感受器和视觉皮层区域相连,则视觉皮层区域也能学会处理触觉。所以人们一直想要模仿人类的大脑来创造真正的AI,但是还处于初级的研究阶段,毕竟我们连大脑的机制都没完全搞清楚。
另外一个例子是用舌头来看东西:
如图,头上戴的是一个图像接收器,类似摄像头,舌头上的一个电极阵列,高电压代表亮点,低电压代表暗点,这样通过舌头就能“看”东西了。
再回到神经网络算法,我们模拟大脑的目的就是让这种算法能够学习各种各样的事物,而不必某个特别的问题来设计一个对应的程序来解决问题。
2、神经网络(Neural Networks)
模型表示(Model Representation)
首先来看看,大脑中神经元的结构:
理科生肯定都学过高中生物,图中左边的蓝色部分上的分杈叫做树突(Dendrite),它可以连接多个其他的神经元;细胞体中的绿色部分为细胞核;黄色部分为轴突(Axon);最右边为轴突末梢(Axon terminal),它可以和其他神经细胞的树突相连接。一个神经细胞可以和另一个神经细胞相连:
如上图,一个神经元的轴突末梢能和另一个神经元的树突相连,而且树突可以和多个轴突末梢相连,多个神经元的复杂连接就形成了一个神经网络。当然,以上都属于神经科学的范畴,在机器学习中,最简单的神经网络(只有一个神经元)可以表示如下:
其中,左边的 xj,j=1,2,3 表示 输入节点(输入值),右边的 hθ(x) 表示 输出,中间的橘黄色的节点表示 神经元体(Body of Neuron),输入节点与神经元体的连接线称为 输入连接线,神经元体和输出的连接线称为 输出连接线。当然也可以将 x0 画到图中:
而在这里 x0 称为偏置单位(bias unit)。
需要注意的是,函数 hθ(x)=11+e−θTX