深度学习笔记(五)——神经网络和深度学习(深层神经网络)

1.深层神经网络

深层神经网络其实就是包含更多的隐藏层神经网络。下图分别列举了逻辑回归、1个隐藏层的神经网络、2个隐藏层的神经网络和5个隐藏层的神经网络它们的模型结构。

命名规则上,一般只参考隐藏层个数和输出层。例如,上图中的逻辑回归又叫1 layer NN,1个隐藏层的神经网络叫做2 layer NN,2个隐藏层的神经网络叫做3 layer NN,以此类推。如果是L-layer NN,则包含了L-1个隐藏层,最后的L层是输出层。

2.深层网络中的前向传播

对于第l层 ,其正向传播过程的Z^{[l]}A^{[l]}可以表示为(此处是m个样本向量化的形式):

A^{[0]}也就是X。向量化也就是将所有训练样本写成列向量,从左到右叠起来。对上式采用for循环计算每层的激活函数等,并且层间计算无法避免使用for循环进行计算。

3.核对矩阵的维数

对于单个训练样本,输入x的维度是(n^{[0]},1),神经网络的参数W^{[l]}b^{[l]}的维度分别是:

                                                      $$\begin{aligned} W^{[l]}:(n^{[l]},n^{[l-1]}) \end{aligned} $$

                                                          b^{[l]}:(n^{[l]},1)

其中,l=1,2,...,L,n^{[l]}n^{[l-1]}分别是第l层和第l-1层的神经元个数。n^{[0]}=n_{x},表示输入层特征个数。

反向传播过程中,dW^{[l]}db^{[l]}的维度分别与W^{[l]}b^{[l]}相同。

正向传播过程中,z^{[l]}a^{[l]}的维度均为(n^{[l]},1),且dz^{[l]}

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值