论文学习笔记:Simplifying Graph Convolutional Networks

SGC简化GCN模型
本文介绍了一种简化图卷积网络(GCN)的方法——SGC,该方法通过去除卷积层间的非线性变换并固定权重矩阵,显著降低了模型复杂度。SGC在保持分类精度的同时,实现了模型加速及在更大数据集上的应用。文中还详细分析了模型背后的数学原理,并通过实验验证了其有效性。

原文连接 https://arxiv.org/pdf/1902.07153.pdf

本文作者提出SGC,通过移除非线性变换和压缩卷积层之间的权重矩阵来降低 GCN 的复杂性。并且作者在理论上分析了得到的线性模型,认为它实际上是一个固定的低通滤镜,后接线性分类器。实验表明,这种简化,并且不会对下游分类器的准确度带来负面影响。因此,模型可以推广到更大的数据集,并且比FastGCN产生高达两个数量级的加速。
1564406914450.png-235.7kB
GCN中的网络层有个重要的功能,在每一层中,隐含状态的表达是由一步邻居的特征平均得到的。也就是说,K层之后,一个节点从k步所有邻居节点获得特征信息。
S = D ~ − 1 2 A ~ D ~ − 1 2 S = \tilde{D}^{-\frac{1}{2}}\tilde{A}\tilde{D}^{-\frac{1}{2}} S=D~21A~D~21

H ˉ k ← S H ( k − 1 ) \bar{H}^{k} \leftarrow SH^{(k-1)} HˉkSH(k1)

H ( k − 1 ) ← R e L U ( H ˉ k Θ ( k ) ) H^{(k-1)} \leftarrow \mathbf{ReLU}(\bar{H}^{k} \Theta^{(k)}) H(k1)ReLU(HˉkΘ(k))

Y ^ G C H = s o f t m a x ( S H ( k − 1 ) Θ ( k ) ) \hat{Y}_{GCH} = \mathbf{softmax}(SH^{(k-1)} \Theta^{(k)}) Y^GCH=softmax(SH(k1)Θ(k))

其中, H ( k ) \mathbf{H}^{(k)} H(k) 表示节点第k层的隐含状态

作者假设,GCN的主要效果提升,不是因为卷积层之间的非线性变换,而是因为局部邻居特征平均。基于这种假设,作者移除卷积层之间的非线性激活函数,只保留最终的softmax。得到的模型是线性的,但仍然具有增加的K层GCN的感受野。
Y ^ G C H = s o f t m a x ( S . . . S S X Θ ( 1 ) Θ ( 2 ) . . . Θ ( k ) ) \hat{Y}_{GCH} = \mathbf{softmax}(S...SSX\Theta^{(1)}\Theta^{(2)}...\Theta^{(k)}) Y^GCH=softmax(S...SSXΘ(1)Θ(2)...Θ(k))
压缩标准化邻接矩阵的连乘,简化上式。参数化每个卷积层的权重为单个矩阵, Θ = Θ ( 1 ) Θ ( 2 ) . . . Θ ( k ) \Theta = \Theta^{(1)}\Theta^{(2)}...\Theta^{(k)} Θ=Θ(1)Θ(2)...Θ(k) ,得到简化的GCN。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值