GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training

本文提出了一种自监督图神经网络框架GCC,通过对比学习在多个网络中学习通用的、可迁移的图拓扑结构表示。GCC以子图识别为预训练任务,目标是区分不同节点采样的子图,从而捕捉跨网络的一般化模式。实验表明,GCC能有效提升图神经网络在未见过的图上的表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要

目前图表示学习在许多任务上取得了很好的效果但是都是关注于具体领域的并不具有迁移性。本文借鉴预训练思想,设计了一个自监督图神经网络框架来在多个网络中捕获一般化的网络拓扑结构属性。我们设计的预训练任务是在多个网络之间判别子图实体,使用对比学习强化图神经网络来学习固有的,可迁移的结构化表示。

引言

假设:具有代表性的图结构模式是一般化的且在网络之间可迁移。
过去二十多年的工作主要关注点在发掘不同网络中潜在的一般化的结构属性。最近几年图学习的重点从结构模式挖掘转向图表示学习。将结点,边,子图等转化为低维嵌入可以保留一些重要的结构信息。但是,大多数表示学习主要是在单一图上或者一组固定数目的图中学习,表达受限且很难迁移。本质上,这些表示学习模型旨在学习每个数据集专用的网络特定结构模式。举个例子,在社交网络上使用DeepWalk学到的表示无法用于其他图中。因此,可否学习一个一般化的,可迁移的图嵌入是个待解决的问题。

本文借助对比学习的思想在多个图上学习结构化表示。基本的思想是先从输入图中采样实例,把每个实例作为单独的类别,编码并判别这些实例。在GCC中,我们将子图判别作为预训练任务,根据结点的局部结构区分他们。对于每个结点从他的多跳ego-network中采样子图。GCC的目的是区分从特定结点采样的子图和从其他结点

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小源er

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值