深度学习中的多层感知机与相关技术
1. 多层感知机(MLP)基础
多层感知机(MLP)是深度神经网络的基础示例,也被称为深度前馈神经网络(DFN)。其架构包含多个隐藏层,能够捕捉训练数据集中更复杂的关系。
1.1 层级概念
神经网络中隐藏层的数量越多,网络就越深。深度网络能够学习到输入的更复杂表示。层级表示的概念是指每一层学习一组描述输入的特征,并将这些信息按层级传递到隐藏层。最初,靠近输入层的隐藏层学习一组简单的特征,随着信息流向网络的更深层,这些特征逐渐变得复杂,以捕捉输入和目标之间的映射关系。
1.2 选择隐藏层数量:偏差/方差权衡
增加隐藏层数量可能会提高网络的表示质量,但随意增加隐藏层数量可能会对网络的泛化能力产生不利影响,导致过拟合。因为神经网络会更紧密地学习训练数据集中固有的不可约误差,而无法对新示例进行泛化。
在选择隐藏层数量时,应谨慎避免过拟合。可以使用正则化技术,如Tikhonov正则化、Dropout或提前停止等方法来缓解过拟合问题。
经验上,对于简单的学习问题,一个隐藏层通常可以产生良好的结果。但如果输出类的数量增加或数据特征之间存在高度非线性关系,则建议添加更多层,同时要确保模型在测试数据上表现良好。选择隐藏层中的神经元数量和隐藏层的数量通常需要通过试错法进行超参数调整,使用网格搜索进行超参数调整是一种近似最优神经网络架构的好方法。
2. 使用Keras构建MLP模型
以下是使用Keras构建MLP模型的步骤:
1. 导入和转换数据集 :使用Fashion - MNIST数据集
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



