一直是跟着cousera上吴恩达的课学下来的,目前到一课程第四周,还没做第四周作业。
除了明显为个人手写并用手机拍摄,以下提供的图片都来自吴恩达老师课件的截图
献上关键理解图一张

一个隐藏层的神经网络
与逻辑回归单元的区别
逻辑回归单元可以看成是只有一个节点的层,而一个隐藏层的神经网络则是有一个多节点的层和有一个节点的层一同构成的。
1.在逻辑回归单元中www的形状是(1,n)(1,n)(1,n),而当要输出多个节点时,其形状应该时(k,n)(k,n)(k,n)
2.而要增加层数只能多加几个www、bbb,这在后面构建多个隐藏层的神经网络中涉及到。
向前传播公式:
Z[1]=W[1]T∗X+b[1]Z^{[1]}=W^{[1]T}*X+b^{[1]}Z[1]=W[1]T∗X+b[1]A[1]=σ(Z[1])A^{[1]}=\sigma(Z^{[1]})A[1]=σ(Z[1])Z[2]=W[2]T∗A[1]+b[2]Z^{[2]}=W^{[2]T}*A^{[1]}+b^{[2]}Z[2]=W[2]T∗A[1]+b[2]A[2]=σ(Z[2])A^{[2]}=\sigma(Z^{[2]})A[2]=σ(Z[2])
上标方括号对应相应层数,例如Z[1]Z^{[1]}Z[1]表示第一个隐藏层的Z。注意x那一层为第零层,也可以说x那一层不在层数计算范围内。
公式中的考虑:
1.此时W[1]W^{[1]}W[1]应是(n,k)(n,k)(n,

本文介绍了如何构建一个具有一个隐藏层的神经网络,包括向前传播的计算过程、常用的激活函数以及向后传播的公式。强调了多层节点在逼近样本上的优势,并提供了训练和优化神经网络的步骤。
最低0.47元/天 解锁文章
471

被折叠的 条评论
为什么被折叠?



