Coursera机器学习-第四周-Neural Network ForwardPropagation

本文介绍了神经网络的由来,解释了在特征数量增加时,逻辑回归的效率下降,引入神经网络以解决线性不可分问题。详细阐述了前向传播的过程,包括权重矩阵的使用和向量化实现,并通过实例展示了神经网络如何通过非线性转换处理线性不可分数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Neural NetWork的由来

先考虑一个非线性分类,当特征数很少时,逻辑回归就可以完成了,但是当特征数变大时,高阶项将呈指数性增长,复杂度可想而知。如下图:对房屋进行高低档的分类,当特征值只有 x1,x2,x3 时,我们可以对它进行处理,分类。但是当特征数增长为 x1,x2....x100 时,分类器的效率就会很低了。
这里的 g(z)=1/(1+ez)

这里写图片描述

这里写图片描述

符号说明:

  • a(j)i 表示第j层网络的第i个神经元,例如下图 a(2)1 就表示第二层的第一个神经元
  • θ(j) 表示从第 j 层到第 j+1 层的权重矩阵,例如下图所有的 θ(1) 表示从第一层到第二层的权重矩阵
  • θ(j)uv 表示从第j层的第v个神经元到第j+1层的第u个神经的权重,例如下图中 θ(1)23 表示从第一层的第3个神经元到第二层的第2个神经元的权重,需要注意到的是下标uv是指v->u的权重而不是u->v,下图也给出了第一层到第二层的所有权重标注
  • 一般地,如果第j层有 sj 个神经元(不包括bias神经元),第j+1层有 sj+1 个神经元(也不包括bias神经元),那么权重矩阵 θj 的维度是 (sj+1×(sj+1))

Forward propagation

这里写图片描述

第一层,称之为input Layer x={ x1,x2,x3}
第二层至最后一层,成为hidden layers: a(2)2,a(2)1,a(2)3
最后一层是output layer: hθ(x)
通俗点说,向前传播就是上层处理完的数据作为你的输入数据,然后进行处理(权重),再传给下一层,这样逐层处理,最后输出。

a(2)1=g(θ(1)10x0+θ(1)11x1+θ(1)12x2+θ(1)13x3)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值