【论文笔记】Heterogeneous Graph Attention Network

题 目 : 《 H e t e r o g e n e o u s 题目:《Heterogeneous Heterogeneous G r a p h Graph Graph A t t e n t i o n Attention Attention N e t w o r k 》 Network》 Network 🔗
作 者 : X i a o 作者:Xiao Xiao W a n g Wang Wang
来 源 : W W W 2019 来源:WWW2019 WWW2019
源 码 : 源码: github addr
笔 记 : H u 笔记:Hu Hu H e n g c h a n g Hengchang Hengchang

原文摘自我自己的博客Link:http://holdenhu.cn/2020/paper-noteheterogeneous-graph-attention-network/

Intro


本文提出的HAN(Heterogeneous Graph Attention Network)涉及到节点级别和语义级别。

  • 节点级别的Attention主要学习节点及其临近节点间的权重。
  • 语义级别的Attention是来学习基于不同meta-path的权重。

 

Related Work


Graph Neural Network
  ​GNN作为深度学习领域的扩展,用来处理无规则图结构数据。主要的信息传播使用卷积,即GCN,可以分为两类:

Attention
注意力机制在深度学习中也有广泛的应用,self-attention、soft-attention等。也已经有很多基于图Attention的应用,但是都是同构图的数据。
但2019年随后的一篇Graph Transformer Networks也是在异构图上的工作,详见我的note
 

Network Embedding
Network embedding和network representation learning都是在保留图的结构前提下,将网络转换到低位空间(比如推荐系统里常用的user embedding就是压缩到了一维特征值)。而以往的方法比如random walk、matrix factorization都是基于同构图。

 

Contribution


现实世界的交互数据往往种类繁多,构成的heterogeneous graph network (HIN)往往特别复杂,GNN不能直接应用。这也几乎是首次将attention机制用到处理meta-path和graph embedding里。

  • HAN能解决异构图中多种Node、Relation,以及Semantic融合的问题;
  • 该模型能够并行计算;
  • 整个模型的Attention是共享的;
  • 具有很好的可解释性;

 

Implemention


Preliminary

  • Heterogeneous Graph
    图可以表示成:
    G = ( V , E ) \mathcal{G}=(\mathcal{V}, \mathcal{E}) G=(V,E)
    其中 V \mathcal{V} V表示节点集, E \mathcal{E} E表示边的集合

  • 两个映射函数把节点和边映射到他们的种类上去:
    ϕ : V → H \phi: \mathcal{V} \rightarrow \mathscr{H} ϕ:VH
    ψ : E → R \psi: \mathcal{E} \rightarrow \mathcal{R} ψ:ER

  • Meta-path的表示:
    A 1 ⟶ R 1 A 2 ⟶ R 2 ⋯ ⟶ R l A l + 1 A_{1} \stackrel{R_{1}}{\longrightarrow} A_{2} \stackrel{R_{2}}{\longrightarrow} \cdots \stackrel{R_{l}}{\longrightarrow} A_{l+1} A1R1A2R2RlAl+1
    简单来说即是从节点A到节点B所经过的一系列点的序列。

  • Meta-path based Neighbors:基于一条meta-path的邻居节点。
    { {<note “// 默认一个节点的邻居节点包括其自身。”>}}

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值