打卡(1)
3.1 神经网络概览
* 可以很多个sigmoid单元堆叠起来构成一个神经网络。
* 图中[1]、[2]表示层((1),(2)表示单个样本);
* 图中圆圈是sigmoid函数,由两步算的,第一步算z。第二步算a;
打卡(2)
3.2 神经网络表示
* 输入层———隐藏层————输出层————预测值(输入层一般不看作是一个标准层,神经网络的层数指隐藏层和输出层)
* 隐藏层的含义:在训练集中 这些中间节点的真正数值,是不被知道的
* 图中是一个双层神经网络
3.3. 计算神经网络的输出
* α[θ]iαi[θ]中,θθ值所在层,ii表示第
层的ii个节点.
* 节点进行的运算:
;
a[θ]i=σ(Z[θ]i)ai[θ]=σ(Zi[θ]) ;
w
深度学习入门:吴恩达课程浅层神经网络解析

本文介绍了吴恩达深度学习课程中关于浅层神经网络的内容,包括神经网络的组成、向量化表示、激活函数的作用、非线性的重要性以及梯度下降的直观理解。讨论了sigmoid、tanh和ReLU等激活函数的特点,并强调了随机初始化权重在神经网络训练中的必要性。
最低0.47元/天 解锁文章
854

被折叠的 条评论
为什么被折叠?



