一、前言
1、摘要
现有的对比学习方法大多采用预先定义的视图生成方法,如节点下降或边缘扰动等,通常不能很好地适应输入数据或保持原始语义结构。
为了解决这个问题,本文中提出了一个新的框架,称为自动图形对比学习(AutoGCL)。
具体来说,AutoGCL采用了一组由自动增强策略编排的可学习图视图生成器,其中每个图视图生成器学习受输入条件制约的图的概率分布。
AutoGCL中的图视图生成器在生成每个对比样本时保留了原始图中最具代表性的结构,而自动增强在整个对比学习过程中学习策略以引入足够的增强方差。此外,AutoGCL采用联合训练策略,对可学习视图生成器、图编码器和分类器进行端到端的训练,导致对比样本的生成具有拓扑异质性,但语义相似。
2、介绍
在这项工作中,提出了一种可学习的图视图生成方法,即AutoGCL,通过学习节点级增强的概率分布来解决上述问题。
传统的预定义视图生成方法,如随机dropout或图节点掩蔽等,不可避免地会改变图的语义标签,最终损害对比学习。
而AutoGCL适应于输入图,可以很好地保留图的语义标签。
(1)由于gumbel-softmax技巧, AutoGCL是端到端可微的,同时为对比样本生成提供了足够的方差。
(2)提出了一种联合训练策略,以端到端的方式训练可学习视图生成器、图形编码器和分类器。该策略包括视图相似度损失、对比损失和分类损失。它使所提出的视图生成器生成具有相似语义信息但具有不同拓扑属性的增强图。
在表1中,总结了现有图增强方法的性质,其中AutoGCL在比较中占主导地位。
贡献可以总结如下。
•提出了一个图形对比学习框架,将可学习的图形视图生成器嵌入到自动增强策略中。据我们所知,这是第一个为图对比学习构建可学习的生成式节点增强策略的工作。
•提出了一种联合训练策略,用于在图对比学习的背景下以端到端方式训练图视图生成