
GNNs
文章平均质量分 69
嬉嬉皮
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Graph Few-shot learning via Knowledge Transfer
Preliminaries图神经网络一个图G\mathcal{G}G由其邻接矩阵和节点特征(A,X)(\mathbf{A},\mathbf{X})(A,X)表示,其中A∈{0,1}n×n\mathbf{A} \in\{0,1\}^{n \times n}A∈{0,1}n×n,X={x1,…,xn}∈Rn×h\mathbf{X} = \left\{\mathrm{x}_{1}, \ldots, \mathrm{x}_{n}\right\} \in \mathbb{R}^{n \times h}X={x1原创 2020-09-22 09:20:09 · 1104 阅读 · 0 评论 -
【GNN】ASAP:自适应结构感知池化方法
今天学习了图神经网络论文《ASAP: Adaptive Structure Aware Pooling for Learning Hierarchical Graph Representations》提出的自适应结构感知池化方法(Adaptive Structure Aware Pooling, ASAP),发表于AAAI,2020.前言这篇论文回顾近年图神经网络中的池化方法并提出了(1)一种能够分层捕获局部子图信息的稀疏池化算子,该池化方法能够根据池化图的边连接更好的学习全局特征;(2)一种新的更适合原创 2020-08-31 09:43:13 · 2093 阅读 · 0 评论 -
关于GCN中的拉普拉斯
因为涉及了大量的公式,本地写好后传上来问题太多,索性用图将就一下。最后欢迎关注我的公众号阅读高清版本:原创 2020-03-19 16:53:41 · 577 阅读 · 0 评论 -
GATs《GRAPH ATTENTION NETWORKS》阅读笔记
今天读一读Bengio大神的GATs本篇论文Introduction所介绍的文章路线比较清晰,可以拿来做个Roadmap。任务:Node ClassificationIdea: 通过Multi-head Self-attention,考虑节点的邻节点,计算每个节点的hidden representation。方法可直接应用于inductive方法。GAT结构本文结合了GCN和mult...原创 2020-03-16 16:45:33 · 397 阅读 · 0 评论 -
GraphSAGE《Inductive Representation Learning on Large Graphs》阅读笔记
GraphSAGE《Inductive Representation Learning on Large Graphs》阅读笔记Task:node classification最近在读GNN的经典文章,网上对这些文章的解读已经非常透彻,本人在阅读文献过程中也学习了各路大神的独到见解,感谢,向你们致敬。在此分享我的阅读心得和热爱。摘要GraphSAGE为解决大多算法在embeddings训练...原创 2020-03-16 11:28:21 · 705 阅读 · 1 评论 -
图分类《Hierarchical Graph Representation Learning with Differentiable Pooling》阅读笔记
图分类《Hierarchical Graph Representation Learning with Differentiable Pooling》阅读笔记Abstract对于graph neural networks (GNNs),大体上分三种任务:Node Classification,Link Prediction和 Graph Classification。本文关注的是Graph C...原创 2020-03-11 10:31:00 · 1414 阅读 · 1 评论