目录
摘要
提出了对抗性图对比学习——AD-GCL,它通过优化GCL中使用的对抗性图增强策略,使GNN在训练过程中避免捕获冗余(图特征)信息。
1 引言
InfoMax原则可能会有风险,因为它可能会推动编码器捕获与下游任务无关的冗余信息。与InfoMax不同,information bottleneck(IB)要求编码器捕获下游任务的最小的足够信息。具体来说,IB最小化来自原始数据的信息,同时最大化与下游任务相关的信息。随着冗余信息被移除,IB学习到的编码器往往更鲁棒和可转移。
当有关下游任务的知识不可用时,如何训练可能删除冗余信息的GNN?本文提出了一个方法,将GCL与对抗性训练相匹配,称为AD-GCL。AD-GCL由两个组成部分组成:
- 一个GNN编码器。它采用InfoMax来最大化原始图与其增广图的表示之间的互信息。
- 一个基于GNN的增强器。其旨在优化增强策略,以尽可能减少原始图中的冗余信息。
AD-GCL本质上允许编码器捕获最小的足够信息来区分数据集中的图。结果表明,在增强器的搜索空间上有一定的正则化,AD-GCL可以产生下游任务相关信息的下界保证,同时保持原始图中冗余信息的上界保证,匹配IB原理的目标。
我们进一步给出了AD-GCL的一个实例化:GNN增强器使用了一个任务不可知的增强策略,并且将学习一个与输入图相关的非均匀边丢弃概率来执行图的增强。
2 准备工作
属性图 G = ( V , E ) G=(V,E) G=(V,E),其中 V V V是节点集, E E E是边集。 G G G可能具有维度为 F F F的节点属性 { X v ∈ R F ∣ v ∈ V } \{X_v∈\mathbb{R}^F|v∈V\} { Xv∈RF∣v∈V}和边属性 { X e ∈ R F ∣ e ∈ E } \{X_e∈\mathbb{R}^F|e∈E\} { Xe∈RF∣e∈E}。我们将节点 v v v的邻居集表示为 N v \mathcal{N}_v Nv。
2.1 学习图表示
给定空间 G \mathcal{G} G中的一组图 G i , i = 1 , 2 , . . . , n G_i,i=1,2,...,n Gi,i=1,2,...,n,目标是学习一个编码器 f : G → R d f:\mathcal{G}→\mathbb{R}^d f:G→Rd,其中 f ( G i ) f(G_i) f(Gi)可以进一步用于一些下游任务。我们还假设所有的 G i G_i Gi都是从定义在 G \mathcal{G} G上的未知分布 P G \mathbb{P}_\mathcal{G} PG中独立同分布地采样的。另一个模型 q : R d → Y q:\mathbb{R}^d→\mathcal{Y} q:Rd→Y 将学习基于 q ( f ( G i ) ) q(f(G_i)) q(f(Gi))的预测 Y i Y_i Yi。我们假设 ( G i , Y i ) (G_i,Y_i) (Gi,Yi)是从一个分布 P G × Y = P Y ∣ G P G \mathbb{P}_{\mathcal{G}×\mathcal{Y}}=\mathbb{P}_{\mathcal{Y}|\mathcal{G}}\mathbb{P}_{\mathcal{G}} PG×Y=PY∣GPG中独立同分布地采样的,其中 P Y ∣ G \mathbb{P}_{\mathcal{Y}|\mathcal{G}} PY∣G是在给定图的下游任务中图标签的条件分布。
2.2 GNNs
对于图 G = ( V , E ) G=(V,E) G=

研究提出了一种名为AD-GCL的对抗性图对比学习方法,旨在解决图神经网络(GNN)在自监督学习中可能捕获冗余信息的问题。AD-GCL通过优化GCL中的对抗性图增强策略,使GNN在训练过程中学习到最少但足够的信息。它由GNN编码器和基于GNN的增强器组成,编码器采用InfoMax最大化原始图与增强图的互信息,而增强器学习消除冗余信息的增强策略。通过实例化为可学习的EdgeDropping GDA模型,AD-GCL能够端到端训练并调整增强策略,以保留与下游任务相关的信息。实验结果证明了AD-GCL的有效性和优势。
最低0.47元/天 解锁文章
969

被折叠的 条评论
为什么被折叠?



