神经网络基础
浅层神经网络

第一层输入特征叫做输入层,中间成为隐藏层,最右边一个节点的成为输出层,负责产生输出值。通过矩阵相乘实现从左到右的前向计算:

激活函数
- sigmoid函数:其公式为:
导数:
特点是其值域为(0,1),可以作为二分类最后一层的输出 - tanh函数:其公式为:
导数:
其值域为(-1,+1),均值接近0均值,效果要优于sigmoid,但是缺点便是当z特别大或者特别小的时候,导数的梯度和斜率就会接近0,降低梯度下降的速度。 - Relu函数:其公式为:
导数:
修正线性单元,当z大于0时斜率为固定值1,当z=0时,z可以取[0,1]的任意值,当z小于0时,导

本文详细介绍了深度学习的基础,包括神经网络结构、激活函数、梯度下降及其优化算法,如动量梯度下降。此外,讨论了深层神经网络中的正则化方法,如dropout和L1/L2正则化,以及如何处理梯度消失和爆炸问题。还涵盖了批归一化的作用和优化超参数的重要性。
最低0.47元/天 解锁文章
851

被折叠的 条评论
为什么被折叠?



