用Keras开启深度学习之旅
1. 学习目标与基础概述
在深度学习的领域中,使用Keras构建神经网络是一项实用且强大的技能。通过学习,我们期望达成以下目标:
- 能够将Keras定义为顺序模型。
- 开发单层和多层的Keras模型。
- 评估训练好的模型。
- 解释过拟合和欠拟合现象。
- 运用提前停止技术减少过拟合。
在开始构建神经网络之前,我们先了解一些相关的线性代数基础组件,包括标量、向量、矩阵和张量,以及它们的基本运算,如加法、转置和乘法,这些是理解人工神经网络(ANN)底层数学原理的基础。同时,我们还学习了Keras包的基础知识,包括每个节点的数学运算。通过Keras,我们可以构建一个简单的逻辑回归模型,其效果与之前使用的逻辑回归模型类似。
2. 构建第一个神经网络
2.1 从逻辑回归到深度神经网络
逻辑回归本质上是一个非常简单的神经网络,只有一个隐藏层且该隐藏层只有一个节点。在逻辑回归中,模型的参数被称为系数和截距,而在深度学习模型中,这些参数被称为权重(w)和偏置(b)。
在每个节点或单元中,输入值会乘以一些权重,然后加上一个偏置项,接着应用一个非线性函数(如逻辑回归模型中的Sigmoid函数)来计算节点的最终输出。在深度学习中,这个非线性函数被称为激活函数,节点的输出被称为该节点的激活值。
我们可以通过堆叠逻辑回归节点来构建单层神经网络,也可以通过堆叠多个处理层来构建多层神经网络。每个神经网络都由输入层、输出层和一个或多个隐藏层组成。如果只有一个隐藏层,该网络被称为浅层神经网络;而具有多个隐藏层的网络则被称为深度神经网络,训练
超级会员免费看
订阅专栏 解锁全文
1272

被折叠的 条评论
为什么被折叠?



