- 博客(16)
- 收藏
- 关注
原创 六、GTN算法
是一种用于异构图的图神经网络模型,核心是自动学习图的结构转换与节点表示:它无需人工设计元路径,可在异构图上自动识别有价值的节点连接,将异构图转换为更适合任务的新图结构,并以端到端的方式学习新图上的节点表示,解决了人工选元路径可能遗漏关键关系、影响性能的问题。
2025-10-25 22:55:46
1082
原创 五、HAN算法(2)(语义级注意力)
同理,ACM 数据集(聚焦数据库、无线通信等论文分类)和 IMDB 数据集(聚焦动作、喜剧等电影分类)的实验流程一致,最终都验证了 HAN 在异构图节点分类任务中的性能优势。
2025-10-24 22:39:18
1056
原创 五、HAN算法(1)(流程、节点级注意力)
异构图注意力网络(Heterogeneous Graph Attention Network)针对包含多种节点类型和边类型的异构图,通过元路径(Meta - path)定义语义关系、基于元路径的邻居挖掘、节点级与语义级注意力加权来学习节点表示。可以把异构图注意力网络想象成 “电影行业的‘关系分析局’,要理清导演、演员、电影之间的复杂关联,并给不同关联和对象打分”:节点级注意力(Node-level Attention)是异构图注意力网络中针对特定元路径(MetaPath),对节点特征进行投影、计算注意力权重
2025-10-23 16:23:46
2112
原创 四、图网络的分类(2)(MPNN,NLNN,GN)
三类通用图神经网络框架:MPNN(统一图神经网络与图卷积网络)、NLNN(统一 “自注意力” 类方法)、GN(统一 MPNN、NLNN 及其他变体),旨在整合不同图模型到单一框架。等步骤,实现对图结构数据(边 E、节点 V、全局属性 u)的处理与更新。消息传递神经网络(MPNN)的前向传播包含。进行处理后的加权求和。,它是对所有位置 j 的输入。对于输出索引为 i 的结果。
2025-10-21 10:22:40
1833
原创 (四)图网络的分类(1)(GGNN,CNN,GAT,GAE,VGAE)
编码环节:是更 “智能” 的拍照过程,第一层 “GCN 相机” 先统一处理图;第二层有两个 “子相机”,一个学 “亮度均值 μ”,一个学 “亮度方差 σ”,然后根据这两个参数 “采样” 出更灵活的 “嵌入照片 Z”,能涵盖更多样的图特征情况。编码环节:就像用 “GCN 相机” 给输入图(比如一堆点和线构成的图形)拍照,把图的结构和特征压缩成 “嵌入照片 Z”。这种 “还原算法”,再用 sigmoid 当 “显影剂”,把照片还原成和原图尽可能像的 “重构图”。解码环节:拿着 “嵌入照片 Z”,通过计算 Z。
2025-10-20 16:57:08
940
原创 (三)图神经网络(3)(GAT)
从实验结果看,GAT 凭借多头注意力机制,在 Cora、Citeseer 等数据集的归纳式(Inductive)和直推式(Transductive)任务上,性能都超过了 MLP、DeepWalk 等其他方法,比如在 Cora 上达到 83.0±0.7% 的准确率,证明了多头注意力能有效提升模型对图数据的处理能力。使用 K 个独立的注意力机制,每个注意力头按照单头注意力的方式(计算注意力系数、聚合邻居特征)对节点特征进行变换,得到 K 组中间特征。(分母是所有邻居对应指数的和)
2025-10-19 23:20:15
938
原创 (三)图神经网络(2)(GraphSAGE(2) GraphSAGE_Embedding GraphSAGE_minbatch)
GraphSAGE 的小批量前向传播算法,核心是通过和。
2025-10-18 21:19:01
650
原创 (三)图神经网络(2)(GraphSAGE(1)嵌入、采样与聚合)
而且不管是有很多信息的小镇(比如每个居民都有详细的职业、性格等特征,像有论文摘要、分子标记的图),还是只有居民之间连接关系的小镇(比如只知道谁和谁是朋友,没有其他个人信息的图),GraphSAGE 都能给居民建好档案。Mean([0.2,0.3],[0.5,0.6],[0.1,0.2],[0.7,0.8],[0.1,0.1])=[50.2+0.5+0.1+0.7+0.1,50.3+0.6+0.2+0.8+0.1]=[0.32,0.4]之后与。第二维:max(0,1,0.5,1.2)=1.2;
2025-10-18 13:17:46
842
原创 (二)Graph Embedding(5)(SDNE)
1. DeepWalk:采用随机游走,形成序列,采用skip-gram方式生成节点embedding。2. node2vec:不同的随机游走策略,形成序列,类似skip-gram方式生成节点embedding。3. LINE:捕获节点的一阶和二阶相似度,分别求解,再将一阶二阶拼接在一起,作为节点的embedding4. struc2vec:对图的结构信息进行捕获,在其结构重要性大于邻居重要性时,有较好的效果。5. SDNE:采用了多个非线性层的方式捕获一阶二阶的相似性。x_%7Bi%7D。
2025-10-17 16:04:47
701
原创 (二)Graph Embedding(4)(Struc2vec)
(u,v):表示在k 跳邻居层面,节点 u 和 v 的相似性(或距离,相似性与距离通常可相互转化)。k 越大,涵盖的邻居范围越广,能捕捉更全局的结构特征。(u):节点 u 的k 跳顶点集合,即从 u 出发,经过 k 步可达的所有节点构成的集合。例如(u)={u}(0 跳即自身),R1(u) 是 u 直接相连的邻居集合。S(s):集合 s 中节点 “度” 的有序序列。“度” 是节点的连接数,通过有序排列度值,可将集合的结构特征转化为可量化的序列形式。g(,:两个度序列、 之间的。
2025-10-17 16:01:02
605
原创 (二)Graph Embedding(3)(Node2vec)
node2vec 目标是将图中的节点映射为低维向量,同时保留图的结构信息。它的核心创新是,灵活捕捉图中两种不同的节点关系。
2025-10-17 15:50:35
585
原创 (二)Graph Embedding(1)(DeepWalk)
Graph Embedding 是一种将图中的节点、边或子图映射到低维向量空间的技术,同时保留原始图的结构和属性信息。嵌入后的向量可用于机器学习任务,如节点分类、链接预测、社群检测等。作用(听哔哩哔哩up主理解的)在一张图上,想表示每一个节点,可能会用N维长度的one hot 编码表示,n表示节点数量。但是这种表示存在两个缺点①若节点数量较多,需要一个n维的one hot向量,会导致这个向量的长度较大②使用one hot编码会丢失节点在图上的信息情况所以产生了的概念,它的优势在于。
2025-10-17 11:08:44
682
2
原创 (一)图的基本介绍
度中心性(Degree Centrality)是网络分析中最基础的节点重要性度量指标,衡量一个节点与其他节点直接连接的数量。在无向网络中,度中心性即节点的度数(相邻节点数);在有向网络中可分为入度(指向该节点的边数)和出度(从该节点指向其他节点的边数)。
2025-10-16 11:37:58
1972
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅