基于Keras的深度学习入门指南
1. 学习目标与概述
在深入学习之前,先明确我们的学习目标:
- 能够将Keras定义为顺序模型。
- 开发单层和多层的Keras模型。
- 评估训练好的模型。
- 解释过拟合和欠拟合现象。
- 运用提前停止技术减少过拟合。
我们将从简单的逻辑回归模型逐步扩展到复杂的多层神经网络,过程中会学习神经网络的基本概念,如前向传播、损失计算、反向传播和梯度下降,还会了解激活函数、损失函数和优化器的选择。
2. 从逻辑回归到深度神经网络
2.1 逻辑回归与神经网络的联系
逻辑回归本质上是一种非常简单的神经网络,只有一个隐藏层且该隐藏层只有一个节点。在逻辑回归中,模型的参数被称为系数和截距;而在深度学习模型里,这些参数被称为权重(w)和偏置(b)。
在每个节点/单元中,输入值会乘以一些权重,然后将偏置项加到这些加权输入的总和上。接着,会应用一个非线性函数(如逻辑回归模型中的Sigmoid函数)来计算节点的最终输出。在深度学习中,这个非线性函数被称为激活函数,节点的输出被称为该节点的激活值。
2.2 神经网络的结构
神经网络通常由输入层、输出层和一个或多个隐藏层组成。如果只有一个隐藏层,该网络被称为浅层神经网络;而具有多个隐藏层的网络则被称为深度神经网络,训练深度神经网络的过程就是深度学习。
在深度学习中,输入层的节点数等于输入数据的特征/维度数,输出层的节点数等于输出数据的维度数。但隐藏层的节点数需要开发者自行选择,这是一个超参数。选择较大的隐藏层会使模型更灵活,能够模拟更复杂的
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



