最本质区别是处理的数据类型不同。
MLP (Multilayer Perceptron)/ 全连接层
- 全连接:在全连接的多层感知机中,每个神经元都与前一层的所有神经元相连,因此它对输入数据的特征提取是全局性的。
- 参数多:每个连接都有一个单独的权重,参数较多,容易导致过拟合。
- 无平移不变性:由于全连接的结构,MLP难以学习到平移不变性,对于图像等具有平移不变性的数据,需要大量数据来进行训练。
- 通常适用于序列数据、结构化数据和较小规模的特征空间。
CNN / 卷积层(convolutional layer)
- 局部连接:卷积神经网络通过卷积层和池化层实现了局部连接和权重共享,能够更有效地捕获输入数据中的局部特征,这使得它在处理图像、语音等具有空间结构的数据时表现更好。
- 参数少:通过卷积操作实现参数共享,使得网络的参数量大大减少,提高了模型的泛化能力。
- 平移不变性:卷积层通过卷积操作实现了平移不变性,使得模型更容易学习到平移不变的特征。
- 主要用于处理图像、视频和其他具有空间结构的数据,能够更好地捕获空间特征和纹理信息。
(挖坑:循环层(recurrent layer)是深度学习中的一种神经网络层,用于处理序列数据或具有时间依赖性的数据,考虑了时间维度上的信息。)