原文连接 https://arxiv.org/pdf/1902.07153.pdf
本文作者提出SGC,通过移除非线性变换和压缩卷积层之间的权重矩阵来降低 GCN 的复杂性。并且作者在理论上分析了得到的线性模型,认为它实际上是一个固定的低通滤镜,后接线性分类器。实验表明,这种简化,并且不会对下游分类器的准确度带来负面影响。因此,模型可以推广到更大的数据集,并且比FastGCN产生高达两个数量级的加速。

GCN中的网络层有个重要的功能,在每一层中,隐含状态的表达是由一步邻居的特征平均得到的。也就是说,K层之后,一个节点从k步所有邻居节点获得特征信息。
S = D ~ − 1 2 A ~ D ~ − 1 2 S = \tilde{D}^{-\frac{1}{2}}\tilde{A}\tilde{D}^{-\frac{1}{2}} S=D~−21A~D~−21
H ˉ k ← S H ( k − 1 ) \bar{H}^{k} \leftarrow SH^{(k-1)} Hˉk←SH(k−1)
H ( k − 1 ) ← R e L U ( H ˉ k Θ ( k ) ) H^{(k-1)} \leftarrow \mathbf{ReLU}(\bar{H}^{k} \Theta^{(k)}) H(k−1)←ReLU(HˉkΘ(k))
Y ^ G C H = s o f t m a x ( S H ( k − 1 ) Θ ( k ) ) \hat{Y}_{GCH} = \mathbf{softmax}(SH^{(k-1)} \Theta^{(k)}) Y^GCH=softmax(SH(k−1)Θ(k))
其中, H ( k ) \mathbf{H}^{(k)} H(k) 表示节点第k层的隐含状态
作者假设,GCN的主要效果提升,不是因为卷积层之间的非线性变换,而是因为局部邻居特征平均。基于这种假设,作者移除卷积层之间的非线性激活函数,只保留最终的softmax。得到的模型是线性的,但仍然具有增加的K层GCN的感受野。
Y ^ G C H = s o f t m a x ( S . . . S S X Θ ( 1 ) Θ ( 2 ) . . . Θ ( k ) ) \hat{Y}_{GCH} = \mathbf{softmax}(S...SSX\Theta^{(1)}\Theta^{(2)}...\Theta^{(k)}) Y^GCH=softmax(S...SSXΘ(1)Θ(2)...Θ(k))
压缩标准化邻接矩阵的连乘,简化上式。参数化每个卷积层的权重为单个矩阵, Θ = Θ ( 1 ) Θ ( 2 ) . . . Θ ( k ) \Theta = \Theta^{(1)}\Theta^{(2)}...\Theta^{(k)} Θ=Θ(1)Θ(2)...Θ(k) ,得到简化的GCN。
SGC简化GCN模型

本文介绍了一种简化图卷积网络(GCN)的方法——SGC,该方法通过去除卷积层间的非线性变换并固定权重矩阵,显著降低了模型复杂度。SGC在保持分类精度的同时,实现了模型加速及在更大数据集上的应用。文中还详细分析了模型背后的数学原理,并通过实验验证了其有效性。
最低0.47元/天 解锁文章
2255

被折叠的 条评论
为什么被折叠?



