1 引言
深度学习(Deep Learning,DL)自从卷积神经网络(CNN)在图像分类任务中大放异彩后,一直围绕 固定格点(2‑D/3‑D 网格)进行设计。随着数据类型的多样化——社交网络、分子结构、交通流量、推荐系统等——出现了大量非欧几里得结构的数据:图(Graph)、流形(Manifold)以及它们的变形与演化。为此,**几何深度学习(Geometric Deep Learning,GDL)**应运而生,它把传统 DL 的思想迁移到 可变拓扑、对称性约束以及 非欧几里得空间 上。
本文以 图神经网络(Graph Neural Network,GNN) 为核心框架,对 GDL 与传统 DL 的关系进行系统梳理,并深入剖析其理论基础与算法原理。我们将从归纳偏置、可解释性以及实际应用等角度展开讨论。
2 统一框架:传统 DL ↔ GDL
| 维度 | 传统深度学习 | 几何深度学习 |
|---|---|---|
| 数据结构 | 固定格点(二维/三维网格) | 图、流形等非欧几里得结构 |
| 基础模型 | CNN → 2D 网格卷积<br>RNN → 序列递归<br> |
订阅专栏 解锁全文
】统一框架:GNN 与 GDL 的关系&spm=1001.2101.3001.5002&articleId=151068134&d=1&t=3&u=3a82f96c72b643daa3ce18dd65b527ad)
1762

被折叠的 条评论
为什么被折叠?



