小源er
这个作者很懒,什么都没留下…
展开
-
社区发现算法总结
Kernighan-Lin算法先以任意方式将网络顶点按指定规模划分为两个群组,然后,对于任意一对不属于同一分组的节点对,交换两个节点,计算交换前后两个群组割集规模的变化量。在所有节点对中找到使割集规模减少最多的顶点对。如果没有使割集规模减少的定点对,在选择使割集规模增加最小的节点对,然后交换两个节点。重复该过程,被交换过的节点不再参与交换,直到没有可以交换的顶点为止。记录所有交换后的状态,选择割集规模最小的状态。原创 2022-09-05 00:20:00 · 4655 阅读 · 0 评论 -
节点中心性
度中心性,介数中心性,Katz中心性,紧邻中心性,PageRank原创 2022-07-31 19:56:04 · 1935 阅读 · 0 评论 -
K-Core, K-Shell & K-Crust傻傻分不清楚
K-Core(K-核)就是所有大于等于K的K-Shell的并集;K-Crust(K-皮)就是所有小于等于K的K-shell的并集。原创 2022-07-29 20:44:46 · 1836 阅读 · 0 评论 -
图增强与图对比学习
自监督学习的主要目标是通过精心设计的代理任务,从丰富的无标签数据中学习可迁移的知识,然后将学到的知识迁移到具有特定监督信号的下游任务中。首先在得到的两组视图中的结点表示上采样K个motif-like子图,然后使用readout函数得到图级别和子图级别的表示。在这里,我们把针对图数据的数据增广策略分为以下四类基于特征的增广、基于结构的增广、基于采样的增广和自适应的增广。对比学习的目的是最大化正样本对之间的一致性。视图的尺度可能是局部的,上下文的或者全局的,对应的图中结点级,子图级和图级别的信息。.......原创 2022-07-20 16:31:30 · 1294 阅读 · 2 评论 -
图论基础知识总结
图是由节点和连接节点之间的边组成的,与连线的长度,节点的位置没有关系。一个图是一个三元组,其中V是一个非空的节点集合,E是边集合,F是从边集合E到节点序偶(无序偶或有序偶)集合上的函数。若图中边总是两个节点的关联,则图可简记为G=。树可以是空树但图不能是空图。图的结点集不能为空但边集可以为空。**无向图:**若图中所有边都是无向边,则图是无向图;**有向图:**若所有边都是有向边,则图是有向图;**混合图:**若图中既有无向边又有无向边则图为混合图;**多重图...原创 2022-07-18 20:48:20 · 7469 阅读 · 0 评论 -
超图构造综述,Hypergraph Learning: Methods and Practices
超图学习是一种在超图结构上学习的方法。在本文中,我们首先系统重温了现有的超图生成方法,包括基于距离的,基于表示的,基于属性的和基于网络的方法。然后介绍超图上现存的学习方法包括transductivehypergraphlearning,inductivehypergraphlearning,超图结构更新以及多模态超图学习。......原创 2022-07-18 20:31:09 · 3072 阅读 · 0 评论 -
图构造总结-Graph‑based semi‑supervised learning via improving the quality of the graph dynamically
基于图的半监督学习GSSL主要包含两个过程图的构建和标签推测。传统的GSSL中这两个过程是完全独立的,一旦图结构构建完成,标签推断的结果也不再改变。因此,图的结构直接影响GSSL的效果。传统的图构造方法对数据的分布做了一个具体的假设,导致图的质量严重依赖于这些假设的正确性。因此,对于传统图构造方法很难应用再复杂多样的数据分布上。本文提出了一个框架叫做通过动态地提升图质量的图半监督学习。在本方法中,图的构建是基于多个聚类结果的加权融合,并且把标签推断也整合进一个统一的框架达到相互引导,动态提升的效果。....原创 2022-07-14 21:28:07 · 874 阅读 · 2 评论 -
A Survey on Graph Structure Learning: Progress and Opportunities
图数据广泛用于描述现实中的实体及其他们之间的联系。图神经网络高度敏感于给定的图结构,因此噪声和不完备的图会得到不满意的表示并且妨碍模型全面理解潜在的机理。图结构学习GSL旨在联合学习最优的图结构和对应的图表示。在本篇工作中,我们广泛回顾了GSL最近的进展。图神经网络的成功归功于它同时探索了图结构和属性中的丰富信息,但是给定的图数据不可避免的会包含噪声和不完备,这样会阻碍GNN在现实问题中的应用。从表示学习的角度来讲,GNN是通过聚合邻居信息来学习节点表示的。这种迭代的方式存在一个级联的效果即当一个小的噪声传原创 2022-07-13 20:16:52 · 758 阅读 · 2 评论 -
Graph Contrastive Learning with Adaptive Augmentation
对比学习在无监督图表示学习中取得了很好的效果,大部分图对比学习首先对输入图做随机增强生成两个视图然后最大化两个视图表示的一致性。其中,图上的增强方式是非常重要的部分鲜有人探索。我们认为数据增强模式应该保留图固有的属性和结构,可以使模型学到对于不重要的结点和边扰动不敏感的表示信息。但目前的方法大多采用均质的增强方法如均匀的去边,或扰动特征,只能达到次优效果。本文借助先验信息从拓扑和语义角度引入自适应的增强策略。具体来说,在拓扑角度,采用基于结点的中心性来衡量连接结构的重要性的方式设计增强模式;在特征维度,给不原创 2022-07-09 17:19:23 · 1093 阅读 · 0 评论 -
GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training
目前图表示学习在许多任务上取得了很好的效果但是都是关注于具体领域的并不具有迁移性。本文借鉴预训练思想,设计了一个自监督图神经网络框架来在多个网络中捕获一般化的网络拓扑结构属性。我们设计的预训练任务是在多个网络之间判别子图实体,使用对比学习强化图神经网络来学习固有的,可迁移的结构化表示。假设:具有代表性的图结构模式是一般化的且在网络之间可迁移。过去二十多年的工作主要关注点在发掘不同网络中潜在的一般化的结构属性。最近几年图学习的重点从结构模式挖掘转向图表示学习。将结点,边,子图等转化为低维嵌入可以保留一些重要原创 2022-07-08 16:32:46 · 458 阅读 · 0 评论 -
Semi-Supervised and Self-Supervised Classification with Multi-View Graph Neural Networks
摘要图神经网络在图结构数据中取得了很好的效果但是大多数的模型使用的还是叫浅层的结构,当模型层数加深时很容易过平滑。本文基于多视图来聚合更多的信息。我们首先设计两个互补的视图来描述全局结构和节点特征相似性,然后使用注意力策略融合节点表示。最后,通过在不同视图上使用对比学习来学习节点的表示。引言GCN是每层聚合一次一阶邻居的信息,通过增加层数迭代聚合邻居信息。但随着网络层数的增加,效果会严重下降。实验发现使用RELU作为激活函数的GCN随着层数的增加效果严重下降而使用其他激活函数图tanh有减缓过平滑的效果原创 2022-07-06 20:50:20 · 791 阅读 · 0 评论 -
Data Augmentation
自监督深度学习模型的精确性严重依赖于训练时数据的多样性和数据量。模型要想在更复杂任务上有较好的效果一般会有大量的隐藏单元。一般在训练过程中训练隐藏单元越多需要的数据越多,即任务复杂度与参数量与需要的数据量成正比。由于训练复杂任务时数据的缺乏,迁移学习往往被应用并取得较好的结果但是对于指定任务创建预训练模型依旧严峻。另一种解决数据不足问题的技术便是数据增强即通过在可用数据上转化合成新的数据。数据增强可用来解决训练数据的多样性和数据量的问题。数据增强技术依赖于数据的类型。对于常规的数字型数据,常见的技术包括SM原创 2022-07-05 10:57:36 · 537 阅读 · 0 评论 -
An Empirical Study of Graph Contrastive Learning
摘要图对比学习在图表示学习领域树立了新的范式,不需要人工标注信息。但对GCL的分析却寥寥无几。本文通过分析一般化的GCL范式的各个部分包括增强函数,对比模式,对比目标和负采样技术,然后分析各个组件之间的相互作用。实验结论显示,简单的拓扑增强可以生成稀疏视图带来不错的性能提升;对比模型应该与最终任务的粒度一致。引言一个经典的图对比学习方法是首先通过对输入的随机增强构建多个图视图,然后通过对比正负样本学习表示。以每个节点作为中心节点为例,正样本一般是其他视图中表示一致的一些节点,而负样本则是在该Batch中原创 2022-07-05 10:36:05 · 551 阅读 · 0 评论 -
Multi-view graph convolutional networks with attention mechanism
摘要传统的图卷积网络关注于如何高效的探索不同阶跳数(hops)的邻居节点的信息。但是目前的基于GCN的图网络模型都是构建在固定邻接矩阵上的即实际图的一个拓扑视角。当数据包含噪声或者图不完备时,这种方式会限制模型的表达能力。由于数据的测量或者收集会不可避免的会出现错误,因此基于固定结构的图模型表达能力是不充分的。本文提出了基于注意力机制的多视图图卷积网络,将拓扑结构的多个视图和基于注意力的特征聚合策略引入到图卷积中。MAGCN输入多个可靠的拓扑结构,这些结构一般是对应任务给定的结构或者使用经典图构造方法生成原创 2022-07-03 21:10:23 · 1412 阅读 · 4 评论 -
图上的统计特征之Motif,Graphlet和Role
聚类系数结点的度或者中心性在衡量结点重要性区分结点时起到很重要的作用但是对于图中结点度近似或者中心性近似的结点便很难区分它们。因此很有必要从其他角度挖掘图的特征。聚类系数用于衡量邻接结点之间的连接程度(有的解释是衡量一个结点的局部邻域中闭合三角形的比例)。聚类系数分为全局的聚类系数和局部的聚类系数(还有其他变体如平均聚类系数等)。全局聚类系数是对于全图而言的,是计算一个图中所有封闭的三点组的数量除以所有联通的三点组的数量。分子要求三点封闭,分母要求三点联通即可。局部聚类系数是对于结点而言的,计算的是原创 2022-04-11 00:49:28 · 3891 阅读 · 1 评论