
图神经网络
文章平均质量分 94
宝贝儿好
李园园
展开
-
【GNN】第五章:图神经网络架构中的基础设施——GCN、GAT、GraphSAGE、TopKPooling、GAP、GMP
是它自己理解的方法实现的,是先通过邻接矩阵,把所有有边的节点对儿取出来,然后根据节点对儿,concat两个节点的特征向量,然后在线性变换成一个注意力值,然后再leakyReLU->mask->softmax,我一开始也是照着这个思路coding的,但是死活和pytorch_geometric的结果不一致,就开始怀疑各个环节,甚至怀疑是不是参数没有xavier初始化,又跑去源码找pytorch是怎么初始化的,然后又找不到pytorch的初始化参数,真是搞得晕头转向的。最原始的图卷积层是SUM求和的传递机制;原创 2025-03-27 21:53:41 · 1111 阅读 · 0 评论 -
【GNN】第四章:图卷积层GCN
很多地方讲GCN时一直和图像卷积CNN放一起扯啊扯,我个人认为,二者实在没啥可比性,就好比苹果和橘子,没啥可比的,就各学各的,学GCN就把脑子里面的CNN给清空了,不然越搅越糊。一是,在传统深度学习中,deeper is better, 所以我们一直追求更深更复杂的架构,也就是我们经常说的"在海量的数据上训练巨大的模型",所以现在很多模型动辄就是数亿参数,普通电脑根本没法训练,所以当下就是拼硬件的一个局面。每个节点更新特征的时候,一方面要考虑自身的特征,另一方面要考虑与它相关的点的特征。原创 2025-03-11 20:24:22 · 1383 阅读 · 0 评论 -
【GNN】第三章:传统图机器学习中的特征工程
因为每个点都不是孤立的,它都是和一些别的点有联系的,所以一个点的特征的变化是要受到和它有边相连的点的影响的。比如有的任务是求点的(比如对点进行分类、回归等任务),有的是求边的(比如对边进行分类、回归等任务),有的还是求全局的就是Graph级别的任务(比如设计分子结构等任务)。图是一个全局的概念。vi节点k跳远的邻接节点(neighbors with k-hop),指的是到节点vi走k步的节点(一个节点的2跳远的邻接节点包含了自身)。比如上图的节点A的邻接节点就是E,而节点E的邻接节点是ABCD四个节点。原创 2025-03-04 11:02:16 · 723 阅读 · 0 评论 -
【GNN】第二章:图论、及其工具NetworkX
因为每个点都不是孤立的,它都是和一些别的点有联系的,所以一个点的特征的变化是要受到和它有边相连的点的影响的。比如有的任务是求点的(比如对点进行分类、回归等任务),有的是求边的(比如对边进行分类、回归等任务),有的还是求全局的就是Graph级别的任务(比如设计分子结构等任务)。图是一个全局的概念。vi节点k跳远的邻接节点(neighbors with k-hop),指的是到节点vi走k步的节点(一个节点的2跳远的邻接节点包含了自身)。比如上图的节点A的邻接节点就是E,而节点E的邻接节点是ABCD四个节点。原创 2025-03-04 10:56:03 · 1109 阅读 · 0 评论 -
【GNN】第一章:知识体系架构概览
的PyTorch的扩展库,几何深度学习指的是应用于图和其他不规则、非结构化数据的深度学习。是非常随意的,它不像MLP、CNN、RNN、Transformer那样,必须要数据规整、要resize、要截断填补等,图神经网络要求的数据只要有点有边就行,至于几个点几条边都随意。然而在真实世界中,并不是所有的事物都可以用结构化数据来表示,比如社交网络、知识图谱、电商购物、复杂的文件系统、蛋白质相互作用关系、分子结构等,这些事情就没法用结构化数据来表示,只能以。的深度学习方法,就是将神经网络模型拓展到图数据计算领域。原创 2025-03-03 11:46:24 · 720 阅读 · 0 评论