图神经网络与图卷积:理论与应用解析
1. 对称归一化矩阵的优势
对称归一化矩阵在图卷积中具有重要地位,主要有两个原因使其备受青睐:
- 有界谱特性 :这些矩阵的谱是有界的,这赋予了它们良好的数值稳定性。
- 可同时对角化 :它们可以同时对角化,即共享相同的特征向量。例如,对称归一化拉普拉斯矩阵 (L_{sym}) 和对称归一化邻接矩阵 (A_{sym}) 之间存在简单的特征分解关系:
[
\begin{align }
L_{sym} &= I - A_{sym}\
L_{sym} &= U\Lambda U^T\
A_{sym} &= U(I - \Lambda)U^T
\end{align }
]
其中 (U) 是共享的特征向量集,(\Lambda) 是包含拉普拉斯特征值的对角矩阵。这种关系意味着基于其中一个矩阵定义的滤波器与另一个矩阵可交换,这是一个非常方便且理想的性质。
2. 谱图卷积
谱图卷积是将傅里叶变换推广到图域的一种方法,它为图卷积提供了新的视角。
2.1 傅里叶变换与拉普拉斯算子
傅里叶变换与拉普拉斯(差分)算子之间的联系是将傅里叶变换推广到图的关键。拉普拉斯算子 (\Delta) 可以定义为:
[
\Delta f(x) = \nabla^2 f(x) = \sum_{i = 1}^{n} \frac{\partial^2 f}{\partial x_i^2}
] <
图神经网络与图卷积解析
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



