NN_神经网络不同依据的分类方式

神经网络分类方法解析

神经网络分类方式比较多,此处分别以‘‘网络结构(Network Architecture)’’和‘数据结构&归纳偏置‘’’两种方式分类神经网络。

一、网络结构:归纳偏置(Inductive Bias)+ 连接拓扑(Topology)

网络数据结构或更具体地说,“信息在神经网络中的流动方式与连接拓扑(Connectivity Pattern / Inductive Bias)”来划分。

模型数据假设连接方式(拓扑)核心归纳偏置
MLP输入是无结构的向量(如表格数据)全连接(Fully Connected)无结构先验,通用函数逼近器
CNN输入具有局部空间/时间结构(如图像、语音)局部连接 + 权值共享 + 平移不变性局部性 + 平移不变性
RNN输入是序列,当前输出依赖历史时间维度上的循环连接时间顺序依赖 + 状态记忆
GNN输入是图结构(节点+边)按图邻接关系聚合邻居信息图结构平滑性 + 邻居相似性
Transformer输入是集合或序列,任意元素可交互全局自注意力 + 前馈网络全局依赖建模 + 并行计算
Capsule Network(胶囊网络)物体由部分组成,姿态(位置、旋转等)重要动态路由(Dynamic Routing)替代池化姿态等变性(equivariance),保留空间层级关系,用途:小样本图像识别、对抗扰动鲁棒性
Neural ODE(神经常微分方程)系统状态连续演化(如物理系统、生物过程)用常微分方程描述隐藏状态连续变化连续时间动态系统。用途:时间序列建模、内存高效的深度网络
Memory-Augmented Networks(记忆增强网络NTM \ DNC)任务需要外部记忆存储与读写神经网络控制器 + 可微分外部记忆矩阵算法式推理 + 显式记忆。用途:排序、复制、图遍历等算法任务
Spiking Neural Networks(脉冲神经网络, SNN)模拟生物神经元的时序脉冲信号事件驱动(event-based),非连续激活时间编码 + 能效优先。用途:类脑计算、低功耗边缘设备
Autoencoder Variants(自编码器家族)虽然结构上类似 MLP,但训练目标和连接对称性构成特殊类别:Denoising AE:输入加噪 → 重构干净输入;Variational AE (VAE):隐层为概率分布;Graph AE:用于图结构重建。数据可压缩性 + 表示瓶颈
Hybrid / Multi-Modal Architectures(混合架构)代表:Vision Transformer (ViT):将图像分块后用 Transformer 处理 → CNN + Transformer;ConvLSTM:在 LSTM 中引入卷积 → CNN + RNN;Graph Transformer:将注意力机制用于图 → GNN + Transformer融合多种结构先验

二、按照数据结构和归纳偏置的方式分类

数据类型	网络架构	核心连接特性
无结构向量	MLP, ELM, RBF	全连接
网格结构(2D/3D)	CNN, ResNet, U-Net	局部感受野 + 权值共享
序列数据	RNN, LSTM, GRU	时间循环
集合/序列(全局依赖)	Transformer, BERT, GPT	自注意力
图结构	GCN, GAT, GraphSAGE	邻居消息传递
层次部件结构	Capsule Network	动态路由
连续动态系统	Neural ODE	微分方程建模
需外部记忆	NTM, DNC	控制器 + 记忆矩阵
事件/脉冲信号	SNN	脉冲时序编码
这些模型共同构成了现代深度学习的架构动物园(Architecture Zoo),而选择哪种架构,最终取决于你的数据具有什么结构。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值