自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 六、GTN算法

是一种用于异构图的图神经网络模型,核心是自动学习图的结构转换与节点表示:它无需人工设计元路径,可在异构图上自动识别有价值的节点连接,将异构图转换为更适合任务的新图结构,并以端到端的方式学习新图上的节点表示,解决了人工选元路径可能遗漏关键关系、影响性能的问题。

2025-10-25 22:55:46 1082

原创 五、HAN算法(2)(语义级注意力)

同理,ACM 数据集(聚焦数据库、无线通信等论文分类)和 IMDB 数据集(聚焦动作、喜剧等电影分类)的实验流程一致,最终都验证了 HAN 在异构图节点分类任务中的性能优势。

2025-10-24 22:39:18 1056

原创 五、HAN算法(1)(流程、节点级注意力)

异构图注意力网络(Heterogeneous Graph Attention Network)针对包含多种节点类型和边类型的异构图,通过元路径(Meta - path)定义语义关系、基于元路径的邻居挖掘、节点级与语义级注意力加权来学习节点表示。可以把异构图注意力网络想象成 “电影行业的‘关系分析局’,要理清导演、演员、电影之间的复杂关联,并给不同关联和对象打分”:节点级注意力(Node-level Attention)是异构图注意力网络中针对特定元路径(MetaPath),对节点特征进行投影、计算注意力权重

2025-10-23 16:23:46 2112

原创 四、图网络的分类(3)(MPNN/NLNN应用于GN,图的分类)

应用于图网络(GN)时,通过。

2025-10-22 09:53:04 1014

原创 四、图网络的分类(2)(MPNN,NLNN,GN)

三类通用图神经网络框架:MPNN(统一图神经网络与图卷积网络)、NLNN(统一 “自注意力” 类方法)、GN(统一 MPNN、NLNN 及其他变体),旨在整合不同图模型到单一框架。等步骤,实现对图结构数据(边 E、节点 V、全局属性 u)的处理与更新。消息传递神经网络(MPNN)的前向传播包含。进行处理后的加权求和。,它是对所有位置 j 的输入。对于输出索引为 i 的结果。

2025-10-21 10:22:40 1833

原创 (四)图网络的分类(1)(GGNN,CNN,GAT,GAE,VGAE)

编码环节:是更 “智能” 的拍照过程,第一层 “GCN 相机” 先统一处理图;第二层有两个 “子相机”,一个学 “亮度均值 μ”,一个学 “亮度方差 σ”,然后根据这两个参数 “采样” 出更灵活的 “嵌入照片 Z”,能涵盖更多样的图特征情况。编码环节:就像用 “GCN 相机” 给输入图(比如一堆点和线构成的图形)拍照,把图的结构和特征压缩成 “嵌入照片 Z”。这种 “还原算法”,再用 sigmoid 当 “显影剂”,把照片还原成和原图尽可能像的 “重构图”。解码环节:拿着 “嵌入照片 Z”,通过计算 Z。

2025-10-20 16:57:08 940

原创 (三)图神经网络(3)(GAT)

从实验结果看,GAT 凭借多头注意力机制,在 Cora、Citeseer 等数据集的归纳式(Inductive)和直推式(Transductive)任务上,性能都超过了 MLP、DeepWalk 等其他方法,比如在 Cora 上达到 83.0±0.7% 的准确率,证明了多头注意力能有效提升模型对图数据的处理能力。使用 K 个独立的注意力机制,每个注意力头按照单头注意力的方式(计算注意力系数、聚合邻居特征)对节点特征进行变换,得到 K 组中间特征。(分母是所有邻居对应指数的和)

2025-10-19 23:20:15 938

原创 (三)图神经网络(2)(GraphSAGE(2) GraphSAGE_Embedding GraphSAGE_minbatch)

GraphSAGE 的小批量前向传播算法,核心是通过和。

2025-10-18 21:19:01 650

原创 (三)图神经网络(2)(GraphSAGE(1)嵌入、采样与聚合)

而且不管是有很多信息的小镇(比如每个居民都有详细的职业、性格等特征,像有论文摘要、分子标记的图),还是只有居民之间连接关系的小镇(比如只知道谁和谁是朋友,没有其他个人信息的图),GraphSAGE 都能给居民建好档案。Mean([0.2,0.3],[0.5,0.6],[0.1,0.2],[0.7,0.8],[0.1,0.1])=[50.2+0.5+0.1+0.7+0.1,50.3+0.6+0.2+0.8+0.1​]=[0.32,0.4]之后与。第二维:max(0,1,0.5,1.2)=1.2;

2025-10-18 13:17:46 842

原创 (三)图神经网络(1)(GCN)

是一种直接在图结构数据上运行的神经网络,近年来在众多领域取得了广泛应用与显著成果。

2025-10-18 07:58:39 987

原创 (二)Graph Embedding(5)(SDNE)

1. DeepWalk:采用随机游走,形成序列,采用skip-gram方式生成节点embedding。2. node2vec:不同的随机游走策略,形成序列,类似skip-gram方式生成节点embedding。3. LINE:捕获节点的一阶和二阶相似度,分别求解,再将一阶二阶拼接在一起,作为节点的embedding4. struc2vec:对图的结构信息进行捕获,在其结构重要性大于邻居重要性时,有较好的效果。5. SDNE:采用了多个非线性层的方式捕获一阶二阶的相似性。x_%7Bi%7D。

2025-10-17 16:04:47 701

原创 (二)Graph Embedding(4)(Struc2vec)

(u,v):表示在k 跳邻居层面,节点 u 和 v 的相似性(或距离,相似性与距离通常可相互转化)。k 越大,涵盖的邻居范围越广,能捕捉更全局的结构特征。​(u):节点 u 的k 跳顶点集合,即从 u 出发,经过 k 步可达的所有节点构成的集合。例如(u)={u}(0 跳即自身),R1​(u) 是 u 直接相连的邻居集合。S(s):集合 s 中节点 “度” 的有序序列。“度” 是节点的连接数,通过有序排列度值,可将集合的结构特征转化为可量化的序列形式。g(​,:两个度序列​、​ 之间的。

2025-10-17 16:01:02 605

原创 (二)Graph Embedding(3)(Node2vec)

node2vec 目标是将图中的节点映射为低维向量,同时保留图的结构信息。它的核心创新是,灵活捕捉图中两种不同的节点关系。

2025-10-17 15:50:35 585

原创 (二)Graph Embedding(2)(LINE)

对于一条无向边 (i,j)(节点 i 和 j 直接相连),定义它们的。

2025-10-17 15:46:19 645

原创 (二)Graph Embedding(1)(DeepWalk)

Graph Embedding 是一种将图中的节点、边或子图映射到低维向量空间的技术,同时保留原始图的结构和属性信息。嵌入后的向量可用于机器学习任务,如节点分类、链接预测、社群检测等。作用(听哔哩哔哩up主理解的)在一张图上,想表示每一个节点,可能会用N维长度的one hot 编码表示,n表示节点数量。但是这种表示存在两个缺点①若节点数量较多,需要一个n维的one hot向量,会导致这个向量的长度较大②使用one hot编码会丢失节点在图上的信息情况所以产生了的概念,它的优势在于。

2025-10-17 11:08:44 682 2

原创 (一)图的基本介绍

度中心性(Degree Centrality)是网络分析中最基础的节点重要性度量指标,衡量一个节点与其他节点直接连接的数量。在无向网络中,度中心性即节点的度数(相邻节点数);在有向网络中可分为入度(指向该节点的边数)和出度(从该节点指向其他节点的边数)。

2025-10-16 11:37:58 1972

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除