目录
1 对称归一化的意义
对图卷积网络的公式,已经非常熟悉了,并且对公式表示的意思也能理解即:实现图中节点之间的消息传递或者称做特征传递。但是在dgl框架的学习过程中,对于单向二部图的图卷积操作的使用过程中,需要深入的理解图邻接矩阵的对称归一化操作也即图的拉普拉斯正则。
H ( l + 1 ) = σ ( D ~ − 1 / 2 A ~ D ~ − 1 / 2 H l W l ) H^{(l+1)}=\sigma\left(\tilde{D}^{-1 / 2} \tilde{A} \tilde{D}^{-1 / 2} H^{l} W^{l}\right) H(l+1)=σ(D~−1/2A~D~−1/2HlWl)
其中 D ~ = D + I , A ~ = A + I \tilde{D}=D+I, \tilde{A}=A+I D~=D+I,A~=A+I。
通过查询各个博主的观点,图卷积的对称归一化主要有以下意义:
- 是为了信息传递的过程中保持特征矩阵 H H H的原有分布,防止一些度数高的顶点和度数低的顶点在特征分布上产生较大的差异[1]。
- 采用加法规则进行聚合时,度大的节点的特征会越来越大,度小的节点的特征会越来越小,所以需要归一化[2]。
- 归一化 D − 1 D^{-1} D−1即可以实现采用 D − 1 / 2 A D − 1 / 2 D^{-1/2}AD^{-1/2} D−1/2AD−1/2是为了保证图的对称性并且特征归一化有利于神经网络的学习[3]。关于为什么归一化或者标准化对神经网络学习的影响可以见[5][6]。
2 例子解释
(图来自参考文献[7])

A = { 0 1 0 0 1 0 1 0 1 0 1 0 0 1 0 1 0 0 0 0 1 0 1 1 1 1 0 1 0 0 0 0 0 1 0 0 } , D = { 2 0 0 0 0 0 0 3 0 0 0 0 0 0 2 0 0 0 0 0 0 3 0 0 0 0 0 0 3 0 0 0 0 0 0 1 } A=\left\{\begin{array}{llllll} 0 & 1 & 0 & 0 & 1 & 0 \\ 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 1 & 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 & 1 & 1 \\ 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 \end{array}\right\}, D=\left\{\begin{array}{llllll} 2 & 0 & 0 & 0 & 0 & 0 \\ 0 & 3 & 0 & 0 & 0 & 0 \\ 0 & 0 & 2 & 0 & 0 & 0 \\ 0 & 0 & 0 & 3 & 0 & 0 \\ 0 & 0 & 0 & 0 & 3 & 0 \\ 0 & 0 & 0 & 0 & 0 & 1 \end{array}\right\} A=⎩
⎨
⎧010010101010010100001011110100000100⎭
⎬
⎫,D=⎩
⎨
⎧2000000300000020000

本文深入探讨了图卷积网络(GCN)中对称归一化的重要性和作用,解释了其在信息传递过程中保持特征分布、防止节点间差异扩大以及对神经网络学习的益处。通过对称归一化拉普拉斯矩阵,实现了节点间消息传递的均衡,解决了加法规则可能导致的梯度爆炸或消失问题。文章还通过实例和代码展示了对称归一化的计算过程,进一步阐述了其在信息聚合角度的意义。
最低0.47元/天 解锁文章

332

被折叠的 条评论
为什么被折叠?



