- 博客(8)
- 资源 (5)
- 收藏
- 关注
原创 【论文阅读|ICML2020】When Does Self-Supervision Help Graph Convolutional Networks?
代码地址: https://github.com/Shen-Lab/SS-GCNs 论文地址:https://arxiv.org/abs/2006.091360 Abstract我们首先阐述了将自我监督纳入 GCN 的三种机制,分析了预训练和微调以及自我训练的局限性,并继续关注多任务学习。此外,我们建议通过理论依据和数值比较来研究GCN的三个新的自监督学习任务最后,我们进一步将多任务自监督集成到图对抗训练中。1 IntroductionCNN中的pretext task:rotation、.
2021-11-30 20:49:39
2296
原创 【论文阅读|ICLR2020】Strategies for Pre-training Graph Neural Networks
代码地址: https://github.com/snap-stanford/pretrain-gnns/论文地址:https://arxiv.org/abs/1905.12265v20 摘要机器学习的许多应用需要一个模型来对分布上与训练样本不同的测试样本做出准确的预测,而在训练过程中特定任务的标签很少。应对这一挑战的一种有效方法是在数据丰富的相关任务上预训练模型,然后在感兴趣的下游任务上对其进行微调。虽然预训练在许多语言和视觉领域都很有效,但如何有效地在图数据集上使用预训练仍然是一个悬而未决的问.
2021-11-27 18:43:50
2057
原创 Graph Context Encoder: Graph Feature Inpainting for Graph Generation and Self-supervised Pretraining
0 摘要我们提出了 Graph Context Encoder (GCE),这是一种简单但有效的基于图特征屏蔽和重建的图表示学习方法。GCE 模型经过训练可以有效地重建输入图,类似于图自动编码器,其中节点和边标签被屏蔽。特别是,我们的模型还允许通过屏蔽和重建随机伪边增强的图来改变图结构。1 介绍我们在这里假设通过随机扰动和重建来生成训练图的小变化的任务。除了图生成,我们还提出了掩码图的自监督重建,作为促进监督图分类的代理任务。2 相关工作Gao and Ji 受计算机视觉中U-Net模型的启发,他
2021-11-20 20:25:08
2357
原创 【论文阅读】Self-supervised Learning on Graphs:Deep Insights and New Directions
论文地址:https://arxiv.org/abs/2006.10141代码地址: https://github.com/ChandlerBang/SelfTask-GNN0 摘要GNN可以通过简单的邻域聚合自然地利用未标记的节点,而邻域聚合无法彻底利用未标记的节点。本文:我们首先通过实证研究图上的许多基本SSL辅助任务,加深了我们对SSL何时、为何以及哪些策略对GNN有效的理解。受到实证研究的深刻见解的启发,我们提出了一个新方向 SelfTask 来构建能够在各种真实世界数据集上实现最.
2021-11-17 11:01:09
2903
原创 【论文阅读】Self-Supervised Graph Representation Learning via Global Context Prediction
论文地址: https://arxiv.org/abs/2003.016040 摘要为了充分利用快速增长的无标签网络数据,本文介绍了一种新的自监督策略,通过利用数据本身的自然监督来进行图表示学习我们研究全局上下文是否可以成为学习有用的节点表示的监督信号的来源随机选择图中给的几对节点,训练一个精心设计的神经网络来预测一个节点相对于另一个节点的上下文位置1 介绍应该学习什么一直是无监督学习的核心问题在没有手工标注的情况下,如何设计合适的目标函数来学习理想的节点表示是一个具有挑战性的问题如何.
2021-11-11 20:45:25
1221
原创 【论文阅读】Self-Supervised Learning of Graph Neural Networks: A Unified Review
论文题目:Self-Supervised Learning of Graph Neural Networks: A Unified Review论文地址:https://arxiv.org/abs/2102.107571 Introduction可以将SSL的前置任务分为两类:对比模型和预测模型。两类的主要区别在于对比模型需要data-data对进行训练,而预测模型需要data-label对,其中label时从数据中自行生成的,如图1对比模型通常利用自监督来学习数据表示或为下游任务执行预训.
2021-11-08 16:41:04
2244
原创 【论文阅读 | AAAI2020】Unsupervised Attributed Multiplex Network Embedding
0 Abstract问题:大多数现有的网络嵌入方法都假设节点之间只存在单一类型的关系对于考虑网络多重性的工作,他们往往忽略节点属性,只对于节点标签进行训练,并且无法对图的全局属性进行建模本文:提出了一种用于多重属性网络的简单有效的无监督网络嵌入方法DMGI最大化图的局部和整个图的全局表示之间的互信息设计了一种系统的方法引入一致性正则化框架,最大限度地减少了关系类型特定节点嵌入之间的分歧用于区分真实样本的通用判别器注意机制推断每种关系类型的重要性,因此可用于过滤不必要的关系类.
2021-10-28 15:01:29
1187
3
原创 【论文阅读 | KDD2021】ImGAGN: Imbalanced Network Embedding via Generative Adversarial Graph Networks
0 Abstract问题:图上的不平衡分类方法:提出了一个半监督生成对抗图网络模型(ImGANN),以解决图上的不平衡分类问题引入了一种新颖的图结构数据生成器GraphGenerator,它可以通过生成一组合成少数节点来模拟少数类节点的属性分布和网络拓扑结构分布,使得不同类中的节点数量可以平衡。1 Introduction挑战:少数节点与多数节点是不可分离的,即在网络中很难找到多数节点和少数节点的支持区域(如图1(a)所示)主要贡献:提出了一种新的半监督生成对抗网络,利用生成器来模拟少数
2021-10-26 11:25:33
1207
编译原理实践中间代码生成代码(c++)
2019-03-06
编译原理实践语法分析代码(c++)
2019-03-06
词法分析代码(c++)
2019-03-06
多种网站模板(可直接套用)(数据库作业可用)
2019-03-06
贪吃蛇源码
2018-02-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人