GraphSage: Inductive representation learning on large graphs

GraphSage是一种用于大图的归纳节点表示学习算法,解决了GCN全局图依赖的问题。它通过采样和多层聚合函数,如均值、图卷积、LSTM和池化,学习节点嵌入。该模型适用于inductive任务,不需要全部样本进行训练。训练过程包括有监督和无监督方式,如交叉熵损失和负采样。GraphSage在性能上优于传统方法。
背景

Hamilton W L, Ying R, Leskovec J. Inductive representation learning on large graphs[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. 2017: 1025-1035.

模型

GraphSage被提出\upcite{20}, 是一种在大图上基于归纳式子表示学习的算法。主要解决的问题可以被描述为:给定图,输入特征X\bf{X}X, 图G(V,E){\mathcal G}({\mathcal V},{\mathcal E})G(V,E),在GraphSage 中包含两种操作,一种是采样操作者,另外一种是聚合操作。在采样过程中,GraphSage依据节点之间的信息连接对当前节点的邻居节点进行采样操作。在使用聚合函数操作时,使用的是多层聚合函数。通过多层聚合函数,对相邻节点的信息进行融合。在GCN中,网络训练在每一层都需要依靠A^{\bf{\hat A}}A^,这表明GCN 依赖全局图的使用, 因此GraphSage 解决这一方面的问题。GraphSage 聚合的过程采用两层聚合的方式。在GCN中,使用全局图,和全部样本,这是一种Transductive任务。对于Inductive任务,训练模型不需要使用全部样本,因此GraphSage被用来解决这一方面的问题。
在这里插入图片描述
给定xv{ {\bf{x}}_v}xv ,聚合层的领域节点定义为xv∈X{ {\bf{x}}_v} \in {\bf{X}}x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值