多层感知机(MLP):原理、应用与计算过程详解
1. 多层感知机概述
多层感知机(MLP)作为一种深度学习算法,由Rumelhart在1982年发明,它的出现让神经网络研究从低谷中复苏。MLP的架构包含输入层、隐藏层和输出层,即在输入层和输出层之间增加了一个隐藏层。
MLP适用于各类回归任务和分类任务。其优点是对噪声有较高的容忍度,泛化性能出色;缺点是训练所需时间较长。
MLP还有一些改进的变体:
- 典型的变体是在梯度下降中加入动量项来优化权重。
- 若将MLP应用于时间序列预测,它接收在时间序列数据上滑动的窗口作为输入,这种版本被称为TDNN(时间延迟神经网络)。
- CNN(卷积神经网络)也属于MLP变体,它在MLP基础上增加了特征提取部分。其他变体可通过修改标准MLP的学习过程和架构得到。
2. 感知机
感知机是早期的前馈神经网络,下面从架构、分类过程、学习过程和回归应用四个方面进行介绍。
2.1 架构
感知机由Rosenblatt在20世纪50年代发明,包含输入层和输出层。1982年,Rumelhart通过增加隐藏层将其扩展为MLP。
- 输入层 :初始输入向量假设为d维向量 $\mathbf{x} = [x_1, x_2, \cdots, x_d]$。输入层的作用是将输入向量原样传递到下一层。第i个输入节点表示为 $I_i = x_i$,由于输入节点的值就是输入值本身,所以通常省略 $I_i$ 的表示,直接用 $x_i$ 表示输入值。
- 输出层 :每个输出
超级会员免费看
订阅专栏 解锁全文
1347

被折叠的 条评论
为什么被折叠?



