图卷积(7)——过平滑现象(2)

图卷积(7)——过平滑现象(2)


空间域图卷积局限性分析:

上一份博客中提到的那篇论文,提出了三个观点。论文中也将其总结一下。

GCNs优势:
   图卷积(拉普拉斯平滑)使分类问题更容易
   多层神经网络具备强大的特征提取功能
GCNs劣势:
   多次拉普拉斯平滑使输出特征过度平滑
   浅层神经网络的感受野、特征提取能力有限
解决方案:
   基于随机游走的协同训练(Co-Training)
   自训练(Self-Training)

基于随机游走的协同训练

定义吸收概率矩阵 P = ( L + α Λ ) − 1 P=(L+\alpha\Lambda)^{-1} P=(L+αΛ)1,其中 P i , j P_{i,j} Pi,j表示从节点 i i i出发,吸收到节点 j j j信息的概率,即节点 i i i j j j属于同一类的可能性,然后再计算 p = ∑ j ∈ S k P : , j p=\sum_{j \in \mathcal{S}_{k}}P_{:,j} p=jSkP:,j S k S_k Sk表示第 k k k类有标签节点集合,找出 p p p中的前若干个样本,将其加入到训练集中,标签便是其在 p p p中的列数。

自训练

先计算 Z = G C N ( X ) ∈ R n × F Z=GCN(X)\in \mathbb{R}^{n \times F} Z=GCN(X)Rn×F,对每一类 k k k,寻找属于这一类中前若干个样本,将其加入训练集中,标签为 k k k

这两种方法的目的都是尽量去扩展训练集,两种方法也可以同时进行。


过平滑问题思考

一、过平滑问题是否具有一般性
  目前没有证明其具有一般性。比如GraphSAGE中的采样机制和GATs中的注意力机制都能一定程度上缓解过平滑问题。
二。过平滑问题与其他问题的综合交互
比如梯度消失、过拟合问题
三、如何缓解过平滑问题

  1. 深度拓展:高层特征融合底层特征
  2. 宽度拓展:全局特征融合局部特征

深度拓展

  1. 残差连接
    Z ( l + 1 ) = D ^ − 1 2 A ^ D ^ − 1 2 X ( l ) W ( l ) X ( l + 1 ) = σ ( Z ( l + 1 ) ) + X ( l ) Z^{(l+1)}=\hat{D}^{-\frac{1}{2}} \hat{A} \hat{D}^{-\frac{1}{2}} X^{(l)} W^{(l)} \\X^{(l+1)}=\sigma\left(Z^{(l+1)}\right)+X^{(l)} Z(l+1)=D^21A^D^21X(l)W(l)X
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值