
GNN
文章平均质量分 87
图网络
w55100
这个作者很懒,什么都没留下…
展开
-
笔记 How Powerful are Spectral Graph Neural Networks
How Powerful are Spectral Graph Neural Networks原创 2022-06-12 17:17:41 · 1077 阅读 · 8 评论 -
图数据集整理
结点DatasetNodesedgesfeaturesclasseslinkWiki-CS11,701216,12330010https://github.com/pmernyei/wiki-cs-dataset/raw/master/datasetAmazon-Computers13,752245,86176710https://github.com/shchur/gnnbenchmark/raw/master/data/npz/amazon_ele原创 2021-08-31 20:23:11 · 17427 阅读 · 5 评论 -
styleGAN3 阅读笔记
前言主要解决aliasing问题。用我的理解来说。styleGAN2有问题,生成的纹理学到的是固定的相对位置。(absolute relative position)原文称为 texture sticking。例如体现在,转动人脸,胡子固定不动。我们当然希望生成的胡子跟随人脸转动。(smooth)理论铺垫根据Nyquist–Shannon sampling theorem,离散的采样信号,需要采样频率大于2倍的连续信号频率,才能充分表示。f采>2fmax。假设存在一个2维的 脉原创 2021-11-01 11:52:49 · 1049 阅读 · 2 评论 -
GNN图上的谱方法的一些重要结论及其证明
前言初稿先记一些重要的基本结论。可能将本文作为资料库,以后有啥新结论就记进来。(懒于开新文的话)因为结论的重要性比较主观,对lemma,theorem,proposition的区分可能比较随意,按笔者兴趣来。本文默认G为无向图。节点数N,顶点集V,边集E这些常见notation就不必多写了吧。一、基本结论1.1 Laplacian矩阵定义回顾不加自边(self-edge)增强的时候,L=D-A。LG(i,j)={degree(i) if i=j−1 if原创 2020-11-21 02:56:14 · 500 阅读 · 0 评论 -
GCN的Benchmark数据集溯源
前言最经典的GCN做了四个数据集的实验,后续工作基本会在这4个数据集上也做一次。但是由于年代久远,和一些历史问题,后来者想做对比实验难免遇到一些“从哪里获取"与"是这个东西吗”之类的困惑。本文记录一些现在还能找到的基本事实供后续入坑的初学者参考。主要厘清几个数据集的存在形式与变迁。4个基本数据集Cora, Citeseer, Pubmed, Nell。格式介绍优快云上已经有一篇很好的文章了《GCN使用的数据集Cora、Citeseer、Pubmed、Tox21格式》。我们按时间关系捋一下原创 2020-10-29 16:09:30 · 2318 阅读 · 3 评论 -
GCN鼻祖paper笔记
https://arxiv.org/pdf/1609.02907.pdfGCN,论文首发于2016,被ICLR2017接收。采用的核心原理还是谱方法的卷积,spectral convolution。结合了一项重要工作,利用切比雪夫多项式对谱卷积的计算复杂度进行化简。化简部分我写在了这里《图上的卷积》回顾谱卷积定义式。gθ⋆x=UgθUTx≈∑i=0K−1[θkTk(L^)]xg_{\theta}\star x =Ug_{\theta}U^{T}x \approx\sum_{i=0}^{K.原创 2020-11-19 08:17:04 · 1254 阅读 · 0 评论 -
图网络上的卷积
前置知识基本符号梯度▽, 对数量场求梯度▽u,结果为向量。散度▽·,注意散度符号有点。对向量场求散度▽·A ,点乘结果为数。拉普拉斯算子△,或写为 ▽2▽^2▽2,定义为梯度的散度。于是有▽f=grad(f)△f=▽2f=▽⋅▽f=div(grad(f))▽f=grad(f) \\△f=▽^2f = ▽\cdot ▽f = div(grad(f))▽f=grad(f)△f=▽2f=▽⋅▽f=div(grad(f))定义式L=D−WL=D-WL=D−WCombinatorial Lapla原创 2020-10-10 15:21:14 · 1117 阅读 · 0 评论 -
图数据集的幂次规律
A. L. Barabasi and R. Albert. 1999. Emergence of scaling in random networks. Science 286, 5439 (October 1999), 509–512. http://view.ncbi.nlm.nih.gov/pubmed/10521342现实数据集(real dataset)中存在一个普适性规律。即任意结点与k个其他结点连边的概率服从指数幂分布(Power Law Distribution)。数学化表示即结.原创 2021-02-06 20:13:09 · 481 阅读 · 0 评论 -
DGL API on PyTorch
由于其某种垄断优势不得不在部分场合加入DGL,不得不学一下API。原创 2021-12-29 18:02:45 · 2193 阅读 · 0 评论 -
Graph Classification 实现
记录一下实现细节原创 2022-01-14 16:43:36 · 1034 阅读 · 0 评论 -
各种类型创建图结构与adjacent matrix
错误方案 networkximport networkx as nxedgelist = [(0, 4), (0, 6), (0, 8), (6, 5), (1, 2), (1, 3)]adj = nx.adjacency_matrix(nx.from_edgelist(lis)).toarray()print(adj)array([[0, 1, 1, 1, 0, 0, 0, 0], [1, 0, 0, 0, 0, 0, 0, 0], [1, 0, 0,原创 2021-11-15 14:43:56 · 922 阅读 · 0 评论 -
Polynominal多项式模型的实现
前言目前(21.11.12)来看,所有polynominal的方法都大同小异。一、以ChebNet为例Convolutional Neural Networks on Graphs with Fast Localized Spectral Filteringhttps://arxiv.org/abs/1606.093751.1 torch_geometric版本的filter表达式torch_geometric这个实现合理吗?注意,paper原文的表达式,是从k=0k=0k=0到k=K−原创 2021-11-14 18:03:15 · 876 阅读 · 0 评论 -
Rayleigh-Ritz theorem 瑞丽商笔记
https://blog.youkuaiyun.com/klcola/article/details/104800804https://www.planetmath.org/RayleighRitzTheorem原创 2021-04-20 20:00:31 · 2185 阅读 · 0 评论 -
折腾torch geometric环境
如此不智能不便利不友好的库竟然还有人喜欢用。不会吧不会吧不会吧不会吧记录傻X环境依赖。torch1.2.0 torchvision0.4.0 默认cuda10.0 3.5<=python<=3.7torch1.3.0 torchvision0.4.1 默认cuda10.0 3.5<=python<=3.7torch1.3.1 torchvision0.4.2 默认cuda10.0 3.5<=python<=3.7torch1.4.0 torchvision0原创 2021-04-15 17:28:17 · 4116 阅读 · 0 评论