
图神经网络
文章平均质量分 86
使用图神经网络解决小样本学习问题
一只瓜皮呀
分享图神经网络和小样本学习相关的论文阅读笔记、以及算法刷题纪律
展开
-
【阅读笔记】Deep Graph Contrastive Representation Learning
如今,图表示学习已成为分析图结构化数据的基础。受最近对比方法成功的启发,在本文中,我们通过在节点级别利用对比目标,提出了一种用于无监督图表示学习的新框架。具体来说,我们通过损坏生成两个图视图,并通过最大化这两个视图中节点表示的一致性来学习节点表示。为了为对比目标提供不同的节点上下文,我们提出了一种混合方案,用于在结构和属性级别上生成图形视图。此外,我们从互信息和经典的三元组损失两个角度为我们的动机提供了理论依据。我们使用各种真实世界的数据集对转导和归纳学习任务进行实证实验。实验实验表明,尽管它很简单,但我们原创 2022-04-22 20:51:47 · 1647 阅读 · 2 评论 -
【阅读笔记】Multi-Dimensional Edge Features Graph Neural Network on Few-Shot Image Classification
使用图神经网络 (GNN) 进行小样本图像分类是近年来的热门话题。大多数基于 GNN 的方法都取得了可喜的性能。这些方法利用节点特征或一维边缘特征进行分类,忽略节点之间的丰富边缘特征。在本文中,我们提出了一种利用多维边缘特征的新型图神经网络(MDE-GNN),该网络基于边缘标记图神经网络(EGNN)和用于小样本学习的直推式神经网络。与之前基于 GNN 的方法不同,我们利用多维边缘特征信息在图中构建边缘矩阵。在节点和边缘特征层更新后,我们通过精心设计的边缘聚合模块通过多维边缘特征生成相似度得分矩阵。我们网络中原创 2022-04-13 20:34:20 · 1704 阅读 · 0 评论 -
【阅读笔记】Learning Dual-Pooling Graph Neural Networks for Few-Shot Video Classification
本文解决了小样本视频分类的问题,该分类仅从几个示例中学习新概念的分类器。当前大多数方法都忽略了明确考虑视频内和视频间域中的关系,因此无法充分利用小样本学习中的结构信息。在本文中,我们建议通过图神经网络 (GNN) 开发全面的视频内和视频间关系。为了提高准确选择代表性视频内容和细化视频关系的判别能力,构建了一个双池 GNN (DPGNN),它以分层方式堆叠定制的图池层。具体来说,为了选择视频中最具代表性的帧,我们构建视频内图并利用节点池化模块来提取稳健的视频级特征。我们通过将视频级特征作为节点来构建视频间图。原创 2022-04-09 15:16:14 · 2882 阅读 · 0 评论 -
【阅读笔记】Fuzzy Graph Neural Network for Few-Shot Learning
以往的基于图神经网络的小样本学习方法在构建邻接矩阵时,要么通过神经网络计算、要么通过欧式距离计算。然而,这种做法有一个弊端,就是节点之间都有边相连,在图传播的过程中会造成噪声的传播。因此,本文通过对邻接矩阵进行阈值处理,降低噪声的传播。原创 2022-04-09 15:05:16 · 1356 阅读 · 0 评论 -
【阅读笔记】Cross-Modality Graph Neural Network For Few-Shot Learning
尝试仅使用少数标记样本来预测未标记样本的少样本学习已引起越来越多的关注。尽管最近的工作取得了可喜的进展,但他们都没有注意到在剧集之间建立一致性,从而导致潜在嵌入空间的模糊性。在本文中,我们提出了一种新颖的跨模态图神经网络(CMGNN)来揭示情节之间的关联,以实现一致的全局嵌入。由于 NLP 引入的语义信息与视觉信息空间相比是相对固定的,因此我们利用它为每个类别构建元节点,以通过 GNN 指导相应的视觉特征学习。此外,为了确保全局嵌入,设计了距离损失函数以更大程度地迫使视觉节点更靠近其关联的元节点。对四个基准原创 2022-03-14 10:53:28 · 1504 阅读 · 0 评论 -
【阅读笔记】Combat data shift in few-shot learning with knowledge graph
我们提出了一种新颖的基于度量的元学习框架,在知识图谱的帮助下提取任务特定的表示和任务共享的表示。因此,可以通过任务共享和任务特定表示的组合来对抗任务内/任务之间的数据转移。所提出的模型在流行的基准和两个构建的新的具有挑战性的数据集上进行了评估。评估结果证明了其卓越的性能。原创 2022-03-10 14:46:01 · 1006 阅读 · 0 评论 -
【阅读笔记】Conditional Random Field Enhanced Graph Convolutional
强制执行隐藏层以保持相似关系具有挑战性。为了解决这个问题,我们提出了一种用于图卷积神经网络的新型 CRF 层,以鼓励相似的节点具有相似的隐藏特征。通过这种方式,可以明确地保留相似性信息。此外,所提出的 CRF 层易于计算和优化。因此,它可以很容易地插入到现有的图卷积神经网络中以提高其性能。最后,大量的实验结果验证了我们提出的 CRF 层的有效性。原创 2022-01-11 10:11:26 · 970 阅读 · 0 评论 -
【阅读笔记】Mutual CRF-GNN for Few-shot Learning
在本文中,我们提出了一种新颖的 Mutual CRF-GNN (MCGN)。在这个 MCGN 中,支持数据的标签和特征被 CRF 用于以有原则和概率的方式推断 GNN 亲和力。具体来说,我们构建了一个以标签和支持数据的特征为条件的条件随机场 (CRF),以推断标签空间中的亲和力。这种亲和性作为节点亲和性被馈送到 GNN。GNN和CRF在MCGN中相互促进。原创 2022-01-10 11:33:19 · 1583 阅读 · 2 评论 -
变分图自编码器+代码解读
变分图自编码器原创 2021-12-28 10:38:26 · 2704 阅读 · 1 评论 -
【阅读笔记】Zero-shot Recognition via Semantic Embeddings and Knowledge Graphs-2018
在本文中,我们基于最近引入的图卷积网络(GCN),提出了一种同时使用语义嵌入和类别关系来预测分类器的方法。对于一个已习得的知识图(KG),我们的方法将每个节点(表示视觉类别)作为输入语义嵌入。经过一系列的图卷积后,我们预测每个类别的视觉分类器。在训练过程中,给出了几个类别的视觉分类器来学习GCN参数。原创 2021-12-22 19:57:13 · 1131 阅读 · 0 评论 -
【阅读笔记】Learning Graphs for Knowledge Transfer with Limited Labels-2021
固定输入图是利用图卷积网络(GCNs)进行知识转移的主要方法。标准范式是利用输入图中的关系,使用GCNs将信息从训练节点传递到图中的测试节点;例如,半监督、零样本和小样本的学习设置。我们提出了一个广义的学习框架和改进输入图作为标准的基于gcn的学习设置的一部分。此外,我们通过对中间层输出施加三重损失,对图中的每个节点使用相似和不相似邻居之间的附加约束。原创 2021-12-22 19:31:49 · 1159 阅读 · 0 评论 -
【阅读笔记】Prototype Completion with Primitive Knowledge for Few-Shot Learning-2021
我们提出了一种新的基于原型完成的元学习框架。该框架首先引入先验知识(即类级部分或属性注释),然后提取有代表性的属性特征作为先验。然后,我们设计了一个原型完成网络来学习如何利用这些先验来完成原型。为了避免原始知识噪声或类差异导致的原型补全误差,我们进一步开发了一种基于高斯的原型融合策略,利用未标记样本将基于均值的原型与已完成的原型相结合原创 2021-12-18 20:52:06 · 960 阅读 · 0 评论 -
【阅读笔记】ECKPN:Explicit Class Knowledge Propagation Network for Transductive Few-Shot Learning-2021
近年来,基于直推图的分类方法在小样本分类任务中取得了很大的成功。然而,大多数现有的方法忽略了探索类级别的知识,而人类可以通过少量的样本轻松地学习这些知识。为了解决这一问题,本文提出了一种由比较模块、压缩模块和校正模块组成的显式类知识传播网络(ECKPN)。原创 2021-12-14 17:03:05 · 2213 阅读 · 0 评论 -
【阅读笔记+代码】Transductive Relation-Propagation Network for Few-shot Learning-2020
小样本学习是一种有趣而具有挑战性的学习方法,它的目的是通过少量的标注实例来学习新的概念。为了完成这项任务,应该集中精力揭示支持-查询对之间的准确关系。我们提出了一个转导关系-传播图神经网络(TRPN),以显式地建模和传播这种关系跨支持查询对。我们的TRPN将每个支持查询对之间的关系视为一个图节点,称为关系节点,并利用支持样本之间的已知关系(包括类内共性和类间唯一性)来指导关系在图中的传播,生成支持查询对的判别关系嵌入。进一步引入伪关系节点传播查询特征,设计了一种快速有效的转换学习策略,充分利用不同查询之间的原创 2021-12-08 20:04:33 · 2871 阅读 · 0 评论 -
Learning to Propagate Labels:Transductive Propagation Network for Few-shot Learning 阅读笔记+代码
小样本学习的目标是学习一个分类器,即使在每个类的训练实例数量有限的情况下也能很好地概括。最近引入的元学习方法解决了这个问题,它通过在大量的多类分类任务中学习一个通用分类器,并将模型推广到一个新任务中。然而,即使有了这种元学习,新的分类任务中的低数据问题仍然存在。在本文中,我们提出了一种新的转导传播网络(TPN),它是一种新颖的元学习框架,可以对整个测试集进行一次性分类,以缓解低数据量的问题。具体来说,我们建议通过学习利用数据中的流形结构的图构造模块,来学习如何将标签从标记的实例传播到未标记的测试实例原创 2021-12-04 19:49:07 · 2195 阅读 · 0 评论 -
TGG:Transferable Graph Generation for Zero-shot and Few-shot Learning 阅读笔记
现有的方法大多是通过语义嵌入或特征生成来隐式地捕获看不见的关系,导致关系的使用不足,存在一些问题。为了解决这些挑战,我们提出了可转移图生成(TGG)方法,该方法通过图生成来建模和明确利用关系。原创 2021-11-30 09:50:03 · 903 阅读 · 1 评论 -
DPGN: Distribution Propagation Graph Network for Few-Shot Learning 【阅读笔记】
大多数基于图网络的元学习方法建模实例级的实例关系。我们将这一思想进一步扩展,以1-vs- n的方式显式地建模一个示例与所有其他示例的分布级关系。提出了一种新的分布式传播图网络(DPGN)算法。它同时表达了每一个小样本学习任务的分布级关系和实例级关系。为了将所有实例的分布级关系和实例级关系结合起来,构造了一个由点图和分布图组成的对偶完全图网络,每个节点代表一个实例。DPGN采用双图结构,在几次更新中,将标签信息从有标签的例子传播到无标签的例子。在少量学习基准的大量实验中,DPGN在监督设置下的表现比最先进的结原创 2021-11-28 21:51:38 · 734 阅读 · 1 评论 -
Meta-GNN:On Few-shot Node Classification in Graph 阅读笔记
元学习作为一种模仿人类智能的可能方法,最近受到了极大的关注,即在很少或甚至没有演示的情况下获取新的知识和技能。现有的元学习方法大多是在欧几里得域内解决图像和文本等小样本学习问题。然而,将元学习应用于非欧几里德域的研究很少,最近提出的图神经网络(GNNs)模型并不能有效地解决图少样本学习问题。为此,我们提出了一种新的图元学习框架-元GNN -来解决图元学习设置中的小样本节点分类问题。它通过对多个相似的小样本学习任务进行训练,获得分类器的先验知识,然后用很少的标记样本对新分类的节点进行分类。此外,Meta-GN原创 2021-11-16 19:27:03 · 3973 阅读 · 2 评论 -
Graph Few-Shot Learning via Knowledge Transfer 阅读笔记
对于具有挑战性的半监督节点分类问题,已经有了广泛的研究。GNN通过聚合邻居的信息来更新每个节点的表示;然而,大多数GNN层较浅,接收域有限,可能无法达到令人满意的性能,特别是当标记节点的数量相当少的时候。为了解决这一挑战,我们创新性地提出了一种图小样本学习(GFL)算法,该算法融合了从辅助图中学习的先验知识,以提高目标图的分类精度。辅助图与目标图之间共享一个以节点嵌入和特定于图的原型嵌入函数为特征的可转移度量空间,促进了结构知识的转移。原创 2021-11-16 16:16:19 · 1408 阅读 · 1 评论 -
Knowledge Graph Transfer Network for Few-Shot Recognition 阅读笔记
文章目录AbstractIntorductionMethodAbstract小样本学习的目的是在给定一些具有足够训练样本的基本类别的情况下,从很少的样本中学习新的类别。该任务的主要挑战是,新类别容易被物体的颜色、纹理、形状或背景背景(即特异性)所支配,这在给定的少数训练样本中是不同的,但在相应的类别中并不常见。如下图所示: 第一列显示了不同类别的唯一训练样本。接下来的三列展示了根据两个模型正确分类的示例。最后三列显示了SGM模型分类错误但我们的模型分类正确的样本。可以看出,SGM模型可以很好地对与原创 2021-11-13 15:32:34 · 1629 阅读 · 1 评论