PyTorch深度学习项目中的图卷积网络(GCN)原理详解

PyTorch深度学习项目中的图卷积网络(GCN)原理详解

NYU-DLSP20 NYU Deep Learning Spring 2020 NYU-DLSP20 项目地址: https://gitcode.com/gh_mirrors/pyt/pytorch-Deep-Learning

传统卷积神经网络(ConvNets)回顾

卷积神经网络是解决高维学习问题的强大架构。让我们先理解什么是"维度灾难"。

维度灾难解析

考虑一张1024×1024像素的图像,可以看作是1,000,000维空间中的一个点。如果每个维度取10个样本,将产生10^1,000,000种可能的图像组合,这个数字极其庞大。卷积神经网络能够高效地从这种高维图像数据中提取最佳表示。

卷积神经网络的核心假设

  1. 数据的组合性:图像、视频、语音等数据由以下模式组成:

    • 局部性:神经网络中的神经元只连接到相邻层,而非所有层
    • 平稳性:相似的模式在整个图像域中共享
    • 层次性:低级特征组合形成中级特征,进而形成更高级特征
  2. 利用组合性结构:ConvNets提取组合特征并馈送给分类器、推荐系统等

图域数据的特点

传统数据域

  • 图像、体积、视频位于2D、3D、2D+1欧几里得域(网格)上
  • 句子、单词、语音位于1D欧几里得域上
  • 这些域具有规则的时空结构,使得卷积运算快速且数学定义明确

图域数据示例

  1. 社交网络:用户为节点,连接关系为边,每个用户有包含消息、图像、视频的三维特征矩阵
  2. 大脑连接:大脑区域(ROI)为节点,区域间连接强度为边
  3. 量子化学:原子为节点,化学键为边,分子/原子具有不同特征(如电荷、键类型等)

图的定义与特征

图G由以下元素定义:

  • 顶点V
  • 边E
  • 邻接矩阵A

图特征包括:

  • 节点特征:如原子类型
  • 边特征:如键类型
  • 图特征:如分子能量

传统卷积运算

卷积的抽象定义为: $$h^{\ell+1} = w^\ell * h^\ell$$

其中:

  • $h^{\ell+1}$是$n_1×n_2×d$维特征
  • $w^\ell$是$3×3×d$维卷积核
  • $h^\ell$是$n_1×n_2×d$维输入特征

卷积运算可以理解为模板匹配过程,通过小尺寸核(如3×3或5×5)在局部感受野内进行操作,通常使用填充(padding)保持特征图尺寸不变。

图卷积的挑战

将模板匹配扩展到图域面临两个主要问题:

  1. 节点无序性:图中节点没有固定顺序,无法确定核中节点与图中节点的对应关系
  2. 邻域尺寸不一:不同节点的邻域大小可能不同,难以统一处理

图卷积解决方案:卷积定理

卷积定理指出,两个函数卷积的傅里叶变换等于它们傅里叶变换的点积: $$\mathcal{F}(w*h) = \mathcal{F}(w) \odot \mathcal{F}(h)$$

这引出了两个关键问题:

  1. 如何定义图的傅里叶变换?
  2. 如何为紧凑核实现O(n)复杂度的快速谱卷积?

谱图卷积网络实现步骤

第一步:图拉普拉斯矩阵

图拉普拉斯矩阵是谱图理论中的核心算子,定义为: $$\Delta = I - D^{-1/2} A D^{-1/2}$$

其中:

  • A是邻接矩阵
  • D是度矩阵(对角矩阵,元素为节点度数)

拉普拉斯矩阵可以理解为图平滑度的度量,即节点值与其邻域平均值之间的差异。

第二步:傅里叶函数

通过对图拉普拉斯矩阵进行特征分解: $$\Delta = \Phi^T \Lambda \Phi$$

其中:

  • $\Phi$包含拉普拉斯特征向量(傅里叶函数)
  • $\Lambda$包含拉普拉斯特征值(图谱)

第三步:傅里叶变换

傅里叶变换将函数h投影到傅里叶函数上,得到傅里叶级数系数: $$\mathcal{F}(h) = \Phi^T h = \hat{h}$$

逆傅里叶变换则通过傅里叶级数重建原函数: $$\mathcal{F}^{-1}(\hat{h}) = \Phi \hat{h} = h$$

第四步:卷积定理应用

根据卷积定理,图上的卷积运算可以表示为: $$w *_{\mathcal{G}} h = \Phi \hat{w}(\Lambda) \Phi^T h = \hat{w}(\Delta) h$$

这定义了谱卷积,但计算复杂度为O(n²),n为图中节点数。

谱图卷积的局限性

谱卷积在图域上不具备平移不变性,这意味着函数平移可能导致其形状改变,这与欧几里得域上的卷积不同。

总结

本文详细介绍了图卷积网络的原理,从传统卷积神经网络出发,分析了图域数据的特殊性,阐述了图卷积面临的挑战,并基于卷积定理提出了谱图卷积的解决方案。理解这些基础概念对于掌握图神经网络至关重要。

NYU-DLSP20 NYU Deep Learning Spring 2020 NYU-DLSP20 项目地址: https://gitcode.com/gh_mirrors/pyt/pytorch-Deep-Learning

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

华朔珍Elena

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值