Stanford公开课--神经网络的表示

    在一个神经网络里,我们将神经元模拟成一个逻辑单元,下面是一个最简单的情形:

                                                         

    黄色圆圈就相当于神经元的作用,左边是输入,右边是输出;输出是:

                                                               

    其中:
               
                                                                                                   

    其中x0叫偏置单元 ,值总是为1.上面的那个函数在神经网络中也称为激励函数。是模型的参数,在神经网络里称为模型的权重。

    神经网络其实就是这些不同的神经元组合在一起的集合:

                                                


    也可以加上偏置单元,这取决于偏置单元对模型是否有益。第一层是输入层,输入特征项。最后一层称为输出层,计算输出结果,中间一层称为隐藏层,隐藏层也可以不只一层。实际上,任何非输入层和非输入层都可以叫隐藏层

    下面瞅瞅神经网络具体要干什么,执行什么样的计算,在上图中:
          

代表j层第i个单元

权重矩阵,控制着第j层到j+1层映射的函数




具体计算过程如下:





    也就是说除了输入层,每一层的每个单元的激励函数作用在它的输入的线性组合上。这样的话,参数矩阵控制了来自三个输入单元到三个隐藏单元的映射,因此Θ(1) 是一个3*4的矩阵,总结下就是:如果神经网络在第j层有s(j)个单元,在第j+1层有s(j+1)个单元控制第j层到第j+1层的映射的矩阵,维度为s(j+1)*(s(j)+1).

    为了向量化运算:将上面运算公式改写成如下形式:

z(2)(1)x

a(2)=g(z(2))

还有:

h(x)= a(3)=g(z(3))

z(3)(2)a(2)


    z表示输入的线性组合,就是g函数括号内的东西,a是计算激励之后的结果,Θ是参数矩阵。

这样,计算h(x)的过程也称为前向传播(forward propagation),因为我们从输入层的激励开始然后进行向前传播给隐藏层并计算,隐藏层再进行激励继续向前传播知道计算到输出层的激励。这种方法能够帮我们理解神经网络的原理和它为什么能够帮助我们学习非线性假设


    下面瞅一个多分类的问题:以计算机视觉中图片分类为例:


   

        现在给出一副图片,要确定图片上的是什么,是行人还是车还是摩托车还是卡车,对于这个问题,我们可以建立一个具有四个输出单元的神经网络,也就是神经网络的输出是一个思维向量:


    


       这和逻辑回归中的一对多方法是一样的,只不过现在有四个逻辑回归分类器,我们需要对每个分类器进行分类识别。用如下方法进行训练:





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值