ICML22 arixv目前:Structural and Semantic Contrastive Learning for Self-supervised Node Representation

本文结合对比学习、标签传播和原型网络,提出了一种自监督节点表示的方法。通过图扩散进行结构化对比学习,利用多跳获取全局结构关系。同时,采用无参贝叶斯原型推断进行语义对比学习,通过标签传播微调原型。实验结果显示该方法在半监督节点分类和聚类中表现出优秀的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文章信息

在这里插入图片描述

摘要

本文是 采用了近几年多个技术来进行 拼接。 包含对比学习,标签传播,原型网络,图扩散

方法

1. 结构化对比学习

通过图扩散,生成多个增强的图,作者利用这种 特征传播和 特征转化解耦的方式 ,并通过多跳来获得全局结构关系
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

就是计算了多个 跳 的对比损失(4),(3)就是NCEloss。 (2)是SGC的形式,解耦。

2. 语义对比学习

采用原型网络来获取节点的语义关系,如何确定原型的数目至关重要(kmeans等不知道最优的k)
作者首先说引入DPMM(迪利克雷处理混合模型)假设节点表征是符合高斯分布(这里存疑,我们可以之后考虑 cvprdbgan 那个原型分布 hhh

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值