多层感知器(MLP)的实现与应用
1. MLP架构概述
1.1 回归MLP架构
回归MLP的典型架构超参数设置如下表所示:
| 超参数 | 典型值 |
| — | — |
| 输入神经元数量 | 每个输入特征对应一个神经元(例如,MNIST数据集中为28x28 = 784) |
| 隐藏层数量 | 取决于问题,通常为1到5层 |
| 每个隐藏层的神经元数量 | 取决于问题,通常为10到100个 |
| 输出神经元数量 | 每个预测维度对应一个神经元 |
| 隐藏层激活函数 | ReLU(或SELU) |
| 输出层激活函数 | 无,或者ReLU/softplus(如果输出为正值)或logistic/tanh(如果输出有界) |
| 损失函数 | MSE或MAE/Huber(如果存在异常值) |
1.2 分类MLP架构
MLP也可用于分类任务,不同类型的分类任务对应的典型架构如下表所示:
| 超参数 | 二分类 | 多标签二分类 | 多分类 |
| — | — | — | — |
| 输入和隐藏层 | 与回归相同 | 与回归相同 | 与回归相同 |
| 输出神经元数量 | 1个 | 每个标签对应1个 | 每个类别对应1个 |
| 输出层激活函数 | Logistic | Logistic | Softmax |
| 损失函数 | 交叉熵 | 交叉熵 | 交叉熵 |
2. Keras实现MLP
2.1 Keras简介
Keras是一个高级深度
超级会员免费看
订阅专栏 解锁全文
2万+

被折叠的 条评论
为什么被折叠?



