【几何深度学习 Geometric Deep Learning】Graph Transformer

Graph Transformer

从自注意力到图结构的推广

核心思想

  • 邻域注意力(Neighborhood‑Attention):仅在节点自己的局部子图里进行交互,避免全图 O(N²) 的开销。
  • 位置编码(Positional Encoding):为每条边或每个节点提供可区分的位置信息,使得 Transformer 能保留图的拓扑结构。常见做法包括 distance‑based (如 Shortest‑Path Distance, Edge‐Type) 与 random‑walk 方式。

下面给出一个 完整、可运行 的 PyTorch 实现,涵盖

  1. 数据准备(PyG style)
  2. 邻域注意力层 GraphAttentionLayer
  3. 距离/随机游走位置编码 PosEnc
  4. 基于上述两块的 Graph Transformer 模型 GraphTransformer
  5. 训练循环示例

目标:让读者能直接跑一遍,看到梯度消失、收敛速度等常见挑战,并通过代码中的注释快速定位优化点。<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值