[HyperGraph专题]HGNN+:General Hypergraph Neural Networks

本文围绕HGNN+超图神经网络框架展开,介绍其提出背景,阐述超边建模和超图卷积流程,对比相关工作。通过在多个数据集上实验,与经典GNN模型对比,分析结果原因,表明HGNN+能深度利用高阶相关性。还介绍了超图开发工具包DeepHyperGraph。

最近在做和超图相关的工作,自己主要偏编码的工作,但在敲代码和参考其他现有超图库的过程中发现了一个叫DeepHypergrah的库,里面涉及了很多和深度学习相关的内容,用到了pytorch、scipy、numpy之类啥啥啥,看的我一头雾水,想起之前给自己定了一个学习pytorch这一工具的目标,现在终于有契机去研究一下了,顺便也学习一下和图神经网络相关的知识。

论文标题:HGNN+:General Hypergraph Neural Networks

高阶网络乍听过来是一个很牛的概念,因为一般来说我只会用networkx(link:https://github.com/networkx/networkx)或easygraph(link:https://github.com/easy-graph/Easy-Graph)构建简单图来算一些图相关的指标。所以在了解了高阶网络的概念后往往会有一个疑惑就是我们为什么要定义超边(简单来讲就是一条连着多个点的边)、构造超图来建模我们的场景。通过这个文章中的说明或许可以找到一点答案。文章给出的解释是:
一方面,现实世界中的数据相关性远远超过了成对的相关性,这不能用平面图很好地建模。例如,社交网络中的用户可能有不同的属性,这些用户之间的相关性可能以组的方式存在,例如,几个用户可能共享相同的爱好或被调用在同一事件中。简单图的另一个局限性是它的多模态/多类型真实数据建模能力较弱。例如,社交网络中的微博数据可能包含时间、图像、表情符号甚至视频,这些信息它们之间有社交联系。
且考虑到多模态/多类型数据表示的相关性,传统的基于GNN的方法需要在学习阶段整合多个图,并探索相关性多模态/多类型数据中的相关性成为一项具有挑战性的任务。

请添加图片描述

Fig2(a)描述了超图和普通图之间的区别。(b)描述了超图针对多模态/多类型数据的策略。
在这里插入图片描述

主要贡献:

  1. 提出了一个超图神经网络框架:HGNN+,其中主要包括两个流程:超边建模和超图卷积。在超图的建模过程中,理论上提出了"超边组"并进一步定义了四个方式去生成超边组。
  2. 将原来的卷积策略HGNNConv从空间域扩展到一般的两阶段超图卷积运算。(讲真,这句话我不太懂想表达贡献,可能是可拓展性更好的意思吧)
  3. 做了很多实验,发现文章提出的东西效果很牛逼…还提出了一个叫DeepHypergrah的工具包

相关工作:

GNN相关

GNN用于修复深度卷积和非常规数据处理之间的鸿沟,且能直接应用到随机图结构上。GNN可以被分成两类,第一类是spectral-based(基于谱的),第二类是spatial-based(基于空间的)。根据网上的说法,前者代表将graph看作一张image然后做卷积;后者是把在image上做卷积 kernel 转化为能再graph上卷积的样子,就是让graph的局部仿照image的卷积过程。让每个node对应原本image CNN中的pixel,它的邻接node 就是3*3 kernel周围的那8个pixel。
解释来源:https://zhuanlan.zhihu.com/p/338785684

Hypergraph Learning相关

超图学习首先在[ Zhou D, Huang J, Scholkopf B. Learning with Hypergraphs: ¨Clustering, Classification, and Embedding[C]. NeurIPS. 2007]中被引入,它可以进行可转换学习,可以看作是超图结构上的一个传播过程。超图的转换推理旨在最小化超图上连接较强的顶点之间的标签差异。在过去的几年里,超图学习一直被扩展在许多领域得到了良好的开发和应用。Wang等人[

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值