感知机**
- 美国学者Frank Rosenblatt在1957年提出。
- 输入:x,权重w,偏差b。
- 输出:二分类(0或1)。
- 与回归(输出实数)和Softmax(输出概率,多分类)对比。
- **权重w**:控制输入信号的重要性。
- **偏置b**:调整神经元被激活的容易程度。
**感知机应用:简单逻辑电路**
- **与门真值表**:参数示例(0.5,0.5,-0.7)、(0.5,0.5,-0.8)、(1.0,1.0,-1.0)。
- **与非门**:参数(-0.5, -0.5, 0.7)。
- **或门**:参数(0.5, 0.5, -0.3)。
- **异或门**:无法通过单层感知机实现(线性不可分问题)。
**感知机局限性**
- 仅能表示由一条直线分割的空间(线性不可分问题)。
- 解决方案:多层感知机(非线性划分)。
**多层感知机**
- 最简单的深度神经网络,含隐藏层和激活函数。
- **单隐藏层**:隐藏层大小为超参数。
- **激活函数**:
- 作用:将输入信号的总和转换为输出信号,决定如何激活。
- 要求:连续可导、非线性、计算高效、导数值域合适。
- 示例:阶跃函数(感知机使用)、Tanh(映射到(-1,1))、ReLU(线性修正单元)。
**多分类与超参数**
- 使用Softmax处理多分类。
- 超参数:隐藏层数、每层神经元个数。
**学习过程**
- **前向传播**:输入层→隐藏层→输出层。
- **反向传播**:误差从输出层反向传递,调整权重。
- **参数更新**:动态调整权值以最小化误差。
**训练误差与泛化误差**
- **训练误差**:模型在训练数据上的误差。
- **泛化误差**:模型在新数据上的误差。
- **验证数据集**:用于评估模型(避免与训练数据混用)。
- **测试数据集**:最终性能评估(如高考)。
- **K折交叉验证**:数据不足时,划分K部分,轮流验证。
**过拟合与欠拟合**
- **过拟合**:模型过度适应训练数据特性(如死记硬背)。
- **欠拟合**:未学好训练数据的一般性质。
- **解决方案**:权重衰减、暂退法(Dropout)。
**模型复杂度与数据复杂度**
- 模型复杂度因素:参数个数、参数取值范围。
- 数据复杂度因素:样本数量、特征数量、时空结构、多样性。
**总结**
- 多层感知机通过隐藏层和激活函数实现非线性模型。
- 常用激活函数:Sigmoid、Tanh、ReLU。
- 超参数需合理选择以平衡模型性能。