
图表示学习
文章平均质量分 91
一只瓜皮呀
分享图神经网络和小样本学习相关的论文阅读笔记、以及算法刷题纪律
展开
-
【阅读笔记】Deep Graph Contrastive Representation Learning
如今,图表示学习已成为分析图结构化数据的基础。受最近对比方法成功的启发,在本文中,我们通过在节点级别利用对比目标,提出了一种用于无监督图表示学习的新框架。具体来说,我们通过损坏生成两个图视图,并通过最大化这两个视图中节点表示的一致性来学习节点表示。为了为对比目标提供不同的节点上下文,我们提出了一种混合方案,用于在结构和属性级别上生成图形视图。此外,我们从互信息和经典的三元组损失两个角度为我们的动机提供了理论依据。我们使用各种真实世界的数据集对转导和归纳学习任务进行实证实验。实验实验表明,尽管它很简单,但我们原创 2022-04-22 20:51:47 · 1647 阅读 · 2 评论 -
【阅读笔记】Conditional Random Field Enhanced Graph Convolutional
强制执行隐藏层以保持相似关系具有挑战性。为了解决这个问题,我们提出了一种用于图卷积神经网络的新型 CRF 层,以鼓励相似的节点具有相似的隐藏特征。通过这种方式,可以明确地保留相似性信息。此外,所提出的 CRF 层易于计算和优化。因此,它可以很容易地插入到现有的图卷积神经网络中以提高其性能。最后,大量的实验结果验证了我们提出的 CRF 层的有效性。原创 2022-01-11 10:11:26 · 970 阅读 · 0 评论 -
【阅读笔记】Distribution-induced Bidirectional Generative Adversarial Network for Graph Representation
图表示学习的目的是将一个图的所有节点编码成低维向量,作为许多计算视觉任务的输入。然而,现有的算法大多忽略了数据固有分布甚至噪声的存在。这可能会显著增加过拟合现象,降低测试精度。在本文中,我们提出了一种分布诱导的双向生成对抗网络(DBGAN),用于图表示学习。该算法采用结构感知的方法估计潜在表示的先验分布,而不是广泛使用的正态分布假设,通过原型学习隐式地连接图和特征空间。这样就为所有节点生成了有区别的鲁棒表示。此外,为了在保持表示能力的同时提高泛化能力,通过一个双向对抗学习框架很好地平衡了样本级和分布级的一致原创 2022-01-06 20:57:49 · 1275 阅读 · 0 评论