7、基于Keras的深度学习入门指南

基于Keras的深度学习入门指南

1. 学习目标与概述

在深入学习之前,先明确我们的学习目标:
- 能够将Keras定义为顺序模型。
- 开发单层和多层的Keras模型。
- 评估训练好的模型。
- 解释过拟合和欠拟合现象。
- 运用提前停止技术减少过拟合。

我们将从简单的逻辑回归模型逐步扩展到复杂的多层神经网络,过程中会学习神经网络的基本概念,如前向传播、损失计算、反向传播和梯度下降,还会了解激活函数、损失函数和优化器的选择。

2. 从逻辑回归到深度神经网络

2.1 逻辑回归与神经网络的联系

逻辑回归本质上是一种非常简单的神经网络,只有一个隐藏层且该隐藏层只有一个节点。在逻辑回归中,模型的参数被称为系数和截距;而在深度学习模型里,这些参数被称为权重(w)和偏置(b)。

在每个节点/单元中,输入值会乘以一些权重,然后将偏置项加到这些加权输入的总和上。接着,会应用一个非线性函数(如逻辑回归模型中的Sigmoid函数)来计算节点的最终输出。在深度学习中,这个非线性函数被称为激活函数,节点的输出被称为该节点的激活值。

2.2 神经网络的结构

神经网络通常由输入层、输出层和一个或多个隐藏层组成。如果只有一个隐藏层,该网络被称为浅层神经网络;而具有多个隐藏层的网络则被称为深度神经网络,训练深度神经网络的过程就是深度学习。

在深度学习中,输入层的节点数等于输入数据的特征/维度数,输出层的节点数等于输出数据的维度数。但隐藏层的节点数需要开发者自行选择,这是一个超参数。选择较大的隐藏层会使模型更灵活,能够模拟更复杂的

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值