
对比学习
文章平均质量分 90
一只瓜皮呀
分享图神经网络和小样本学习相关的论文阅读笔记、以及算法刷题纪律
展开
-
【阅读笔记】Deep Graph Contrastive Representation Learning
如今,图表示学习已成为分析图结构化数据的基础。受最近对比方法成功的启发,在本文中,我们通过在节点级别利用对比目标,提出了一种用于无监督图表示学习的新框架。具体来说,我们通过损坏生成两个图视图,并通过最大化这两个视图中节点表示的一致性来学习节点表示。为了为对比目标提供不同的节点上下文,我们提出了一种混合方案,用于在结构和属性级别上生成图形视图。此外,我们从互信息和经典的三元组损失两个角度为我们的动机提供了理论依据。我们使用各种真实世界的数据集对转导和归纳学习任务进行实证实验。实验实验表明,尽管它很简单,但我们原创 2022-04-22 20:51:47 · 1647 阅读 · 2 评论 -
【阅读笔记】Imposing Semantic Consistency of Local Descriptors for Few-Shot Learning
少样本学习受到标记训练数据稀缺的影响。将图像的局部描述符作为图像的表示可以大大增加现有的标记训练数据。现有的基于局部描述符的小样本学习方法利用了这一事实,但忽略了局部描述符所表现的语义可能与图像语义无关。在本文中,我们从一个新的角度来处理这个问题,即对图像的局部描述符施加语义一致性。我们提出的方法由三个模块组成。第一个是局部描述符提取器模块,它可以在一次前向传递中提取大量局部描述符。第二个是局部描述符补偿器模块,它用图像级表示来补偿局部描述符,以使局部描述符和图像语义之间的语义对齐。第三个是基于局部描述符的原创 2022-04-22 20:31:26 · 880 阅读 · 1 评论