文章内容课堂总结

感知机**  
- 美国学者Frank Rosenblatt在1957年提出。  
- 输入:x,权重w,偏差b。  
- 输出:二分类(0或1)。  
- 与回归(输出实数)和Softmax(输出概率,多分类)对比。  
- **权重w**:控制输入信号的重要性。  
- **偏置b**:调整神经元被激活的容易程度。  

**感知机应用:简单逻辑电路**  
- **与门真值表**:参数示例(0.5,0.5,-0.7)、(0.5,0.5,-0.8)、(1.0,1.0,-1.0)。  
- **与非门**:参数(-0.5, -0.5, 0.7)。  
- **或门**:参数(0.5, 0.5, -0.3)。  
- **异或门**:无法通过单层感知机实现(线性不可分问题)。  

**感知机局限性**  
- 仅能表示由一条直线分割的空间(线性不可分问题)。  
- 解决方案:多层感知机(非线性划分)。  

**多层感知机**  
- 最简单的深度神经网络,含隐藏层和激活函数。  
- **单隐藏层**:隐藏层大小为超参数。  
- **激活函数**:  
  - 作用:将输入信号的总和转换为输出信号,决定如何激活。  
  - 要求:连续可导、非线性、计算高效、导数值域合适。  
  - 示例:阶跃函数(感知机使用)、Tanh(映射到(-1,1))、ReLU(线性修正单元)。  

**多分类与超参数**  
- 使用Softmax处理多分类。  
- 超参数:隐藏层数、每层神经元个数。  

**学习过程**  
- **前向传播**:输入层→隐藏层→输出层。  
- **反向传播**:误差从输出层反向传递,调整权重。  
- **参数更新**:动态调整权值以最小化误差。  

**训练误差与泛化误差**  
- **训练误差**:模型在训练数据上的误差。  
- **泛化误差**:模型在新数据上的误差。  
- **验证数据集**:用于评估模型(避免与训练数据混用)。  
- **测试数据集**:最终性能评估(如高考)。  
- **K折交叉验证**:数据不足时,划分K部分,轮流验证。  

**过拟合与欠拟合**  
- **过拟合**:模型过度适应训练数据特性(如死记硬背)。  
- **欠拟合**:未学好训练数据的一般性质。  
- **解决方案**:权重衰减、暂退法(Dropout)。  

**模型复杂度与数据复杂度**  
- 模型复杂度因素:参数个数、参数取值范围。  
- 数据复杂度因素:样本数量、特征数量、时空结构、多样性。  

**总结**  
- 多层感知机通过隐藏层和激活函数实现非线性模型。  
- 常用激活函数:Sigmoid、Tanh、ReLU。  
- 超参数需合理选择以平衡模型性能。  

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值