【图神经网络基础】理解GCN的对称归一化操作-图的拉普拉斯归一化

本文深入探讨了图卷积网络(GCN)中对称归一化的重要性和作用,解释了其在信息传递过程中保持特征分布、防止节点间差异扩大以及对神经网络学习的益处。通过对称归一化拉普拉斯矩阵,实现了节点间消息传递的均衡,解决了加法规则可能导致的梯度爆炸或消失问题。文章还通过实例和代码展示了对称归一化的计算过程,进一步阐述了其在信息聚合角度的意义。

1 对称归一化的意义

  对图卷积网络的公式,已经非常熟悉了,并且对公式表示的意思也能理解即:实现图中节点之间的消息传递或者称做特征传递。但是在dgl框架的学习过程中,对于单向二部图的图卷积操作的使用过程中,需要深入的理解图邻接矩阵的对称归一化操作也即图的拉普拉斯正则。
H ( l + 1 ) = σ ( D ~ − 1 / 2 A ~ D ~ − 1 / 2 H l W l ) H^{(l+1)}=\sigma\left(\tilde{D}^{-1 / 2} \tilde{A} \tilde{D}^{-1 / 2} H^{l} W^{l}\right) H(l+1)=σ(D~1/2A~D~1/2HlWl)
其中 D ~ = D + I , A ~ = A + I \tilde{D}=D+I, \tilde{A}=A+I D~=D+I,A~=A+I
  通过查询各个博主的观点,图卷积的对称归一化主要有以下意义:

  1. 是为了信息传递的过程中保持特征矩阵 H H H的原有分布,防止一些度数高的顶点和度数低的顶点在特征分布上产生较大的差异[1]。
  2. 采用加法规则进行聚合时,度大的节点的特征会越来越大,度小的节点的特征会越来越小,所以需要归一化[2]。
  3. 归一化 D − 1 D^{-1} D1即可以实现采用 D − 1 / 2 A D − 1 / 2 D^{-1/2}AD^{-1/2} D1/2AD1/2是为了保证图的对称性并且特征归一化有利于神经网络的学习[3]。关于为什么归一化或者标准化对神经网络学习的影响可以见[5][6]。

2 例子解释

(图来自参考文献[7])
在这里插入图片描述
A = { 0 1 0 0 1 0 1 0 1 0 1 0 0 1 0 1 0 0 0 0 1 0 1 1 1 1 0 1 0 0 0 0 0 1 0 0 } , D = { 2 0 0 0 0 0 0 3 0 0 0 0 0 0 2 0 0 0 0 0 0 3 0 0 0 0 0 0 3 0 0 0 0 0 0 1 } A=\left\{\begin{array}{llllll} 0 & 1 & 0 & 0 & 1 & 0 \\ 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 1 & 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 & 1 & 1 \\ 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 \end{array}\right\}, D=\left\{\begin{array}{llllll} 2 & 0 & 0 & 0 & 0 & 0 \\ 0 & 3 & 0 & 0 & 0 & 0 \\ 0 & 0 & 2 & 0 & 0 & 0 \\ 0 & 0 & 0 & 3 & 0 & 0 \\ 0 & 0 & 0 & 0 & 3 & 0 \\ 0 & 0 & 0 & 0 & 0 & 1 \end{array}\right\} A= 010010101010010100001011110100000100 ,D= 2000000300000020000

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值