图对比学习框架:自适应增强与节点自对齐
在图分析领域,图的同质性和异质性是两个重要的概念。图的边同质性指的是图中连接同一类两个节点的边的比例,其取值范围在[0, 1]之间,值接近1表示强同质性,值接近0表示强异质性。基于此,我们将高同质性的图称为同构图,低同质性的图称为异构图。下面将详细介绍一种基于自适应增强和节点自对齐的图对比学习框架。
1. 自适应增强
为了获取未对齐的视图以证明方法的有效性,提出利用带重启的随机游走采样来获取子图,随后通过边删除和特征掩码对子图进行增强。
- 边删除 :通过节点中心性计算边的中心性,并自适应地删除中心性较低的边。在不同类型的图中,边中心性的计算方式有所不同:
- 有向图:使用尾随节点的中心性作为边中心性,即 $w_{uv} = \phi_c(v)$。
- 无向图:使用两个相邻节点中心性得分的平均值,即 $w_{uv} = (\phi_c(u) + \phi_c(v)) / 2$。
计算边中心性后,为防止不同中心性度量的数量级影响,对其进行归一化处理,$s_{uv} = log w_{uv}$。最终,边的删除概率计算公式为:
[p_{uv} = \min\left{\frac{s_{max} - s_{uv}}{s_{max} - \mu_{es}} \cdot p_e, p_{\tau}\right}]
其中,$s_{max}$ 和 $\mu_{es}$ 分别是 $s_{uv}$ 的最大值和平均值,$p_e$ 是控制边删除总体概率的超参数,$p_{\tau} < 1$ 用于控制边删除的截断概率。
- 特征掩码 :
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



