Self-supervised Heterogeneous Graph Neural Network with Co-contrastive Learning

本文探讨了HeCo模型,一种利用自监督学习(对比学习)在无标签异构信息网络中生成高质量节点嵌入的方法。模型通过网络模式和元路径视角的编码,结合视图掩码,实现了节点嵌入的协同对比优化。创新点包括负样本扩展策略HeCo_GAN和HeCo_MU,以及对比损失的计算和模型性能提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.基本概念

  • Heterogeneous Information Network(异构信息网络)
    分别表示节点集合,连接关系集合,节点类型集合,连接关系类型集合,节点类型映射,连接关系类型映射。例如图中三种类型的节点(author,paper,subject),两种连接关系类型(write,belong to)

  • Network schema(网络模式)
    相当于对异构图的一个抽象表示,以节点类型集合作为新的图顶点集,连接关系集合作为边集合,形成了网络概要模式。用于描述不同节点之间的直接连接关系,捕获局部结构

  • meta-path(元路径)
    不同的元路径表示不同的语义,例如PAP(表达两篇文章由同一作者所写),PSP(描述两篇文章属于同一个学科),捕获高阶结构。给定一个元路径,每个节点有很多基于元路径的邻居节点
    在这里插入图片描述

  • self-supervised
    数据不用打标签,从数据本身寻找监督信号,原先损失函数定义为预测值和标签的交叉熵(学习的目标是使预测值和真实值尽可能接近),现在定义损失不用数据标签,而是从数据本身的监督信息出发(学习的目标是)

  • contrastive learning
    一种典型的自监督学习方法,从数据中提取正样本和负样本,学习的目标是最大化与正样本的相似性,最小化与负样本的相似性

  • self-supervised 和 supervised的区别
    监督式的训练数据需要有lable,学习的目标是使模型的预测值和真实的label尽可能接近(损失函数常使用交叉熵来衡量这种相似性),自监督学习不用label,而是从数据中自己提取监督信号,优化目标根据提取的自监督信号来定义,本质一样,区别只是损失函数的定义上

2.文章创新点

  • 传统的HGNN(Het
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值