自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (1)
  • 收藏
  • 关注

原创 DyAtGNN: Dynamic Attention Graph Neural Networks for dynamic graph论文阅读笔记

针对静态图表示学习无法捕捉图的时间动态性以及现有动态图方法(如结合RNN与GNN的模型)在学习深度信息和处理节点动态性上的局限,本文提出DyAtGNN(Dynamic Attention Graph Neural Networks) 框架;该框架创新性融合时间动态学习模块与自适应结构学习模块,通过RNN同时学习模型参数和影响节点,并结合深层结构学习以适应节点频繁变化的场景,支持节点回归、节点分类、链路预测等多任务;在8个动态图数据集上的实验表明,DyAtGNN性能优于现有基线,尤其在强动态变化场景下最大提升

2025-12-08 21:04:33 838

原创 Towards Better Evaluation for Dynamic Link Prediction论文阅读笔记

该研究发表于NeurIPS-2022,针对动态图链路预测现有评估体系的不足,提出了更严格的评估方案:首先通过TEA(时间边缘出现)图和TET(时间边缘流量)图两种可视化技术,发现动态图中大量边缘会随时间重复出现;基于此提出纯记忆基线EdgeBank(含全记忆EdgeBank∞和时间窗口记忆EdgeBankₜw两种变体),其在多场景下表现出惊人竞争力;为解决现有负采样策略中“简单负边缘”问题,引入历史负采样和归纳负采样两种更具挑战性的策略;同时新增6个跨领域动态图数据集。

2025-11-24 19:58:09 884

原创 DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs论文阅读笔记

动态图学习旨在揭示现实复杂系统(如社交网络、交通系统、医疗诊断)中节点与链路的演化规律,支撑两大核心任务:Mamba作为高效的SSM模型,在语言建模中表现优异,但直接应用于动态图存在关键缺陷:动态图可建模为按时间戳非递减排列的交互序列 G={(u1,v1,t1),...,(uτ,vτ,tτ)}G=\{(u_1, v_1, t_1), ..., (u_\tau, v_\tau, t_\tau)\}G={(u1​,v1​,t1​),...,(uτ​,vτ​,tτ​)},其中 0≤t1≤⋯≤tτ0 \leq t_

2025-11-10 22:46:09 966

原创 INDUCTIVE REPRESENTATION LEARNING IN TEMPO- RAL NETWORKS VIA CAUSAL ANONYMOUS WALKS论文阅读笔记

该研究发表于ICLR 2021,提出因果匿名游走(CAW)及对应的神经网络模型CAW-N,用于时序网络的归纳式表示学习。CAW通过时序随机游走提取网络动态的因果关系(自动获取时序网络 motifs,无需耗时的 motif 筛选与计数),并采用集合化匿名策略(用节点在采样游走集中的出现次数替代节点身份),在保留 motif 间相关性的同时确保归纳能力;CAW-N 则通过 RNN 编码 CAW 并结合集合池化(均值池化/自注意力池化)实现链路预测。

2025-10-22 21:59:04 921

原创 CPDG: A Contrastive Pre-Training Method for Dynamic Graph Neural Networks论文阅读笔记

为解决动态图神经网络(DGNNs)在工业场景中因模型复杂度高、下游任务多样导致的重训练困难,以及预训练阶段泛化能力不足长短期建模能力欠缺的核心问题,研究提出CPDG(Dynamic Graph Neural Networks的对比预训练方法)。该方法通过灵活的结构-时间子图采样器(含η-BFS采样捕捉短期波动模式、ϵ-DFS采样捕捉判别性结构模式)提取 informative 子图,结合结构-时间对比预训练方案(时间对比TC与结构对比SC)及演化信息增强微调(EIE)模块,在5个公共动态图数据集。

2025-09-29 21:04:19 902

原创 DO WE REALLY NEED COMPLICATED MODEL ARCHI- TECTURES FOR TEMPORAL NETWORKS?论文阅读笔记

阅读文章提出了一种简单高效的时序图学习框架GraphMixer,挑战了传统依赖复杂模型(如RNN和自注意力)的范式。GraphMixer通过三个关键模块实现:1)基于固定时间编码和MLP-Mixer的链路编码器;2)采用1跳邻居均值池化的节点编码器;3)2层MLP链路分类器。实验表明,该方法在多个数据集上全面超越现有方法,且具有更快的训练速度、更稳定的优化特性。研究揭示了简单模型在时序图学习中的潜力,为后续研究提供了新思路。

2025-09-15 23:14:31 1007

原创 Towards Better Dynamic Graph Learning: New Architecture and Unified Library论文阅读笔记

本文提出DyGFormer,一种基于Transformer的动态图学习架构,通过邻居共现编码方案(挖掘源节点与目标节点历史序列的相关性)和分块技术(将序列分割为补丁输入Transformer以捕获长期时间依赖并降低计算复杂度),仅从节点历史一跳交互中学习;同时推出DyGLib,一个统一的连续时间动态图学习库,具备标准训练流程、可扩展编码接口和全面评估协议。在13个数据集上针对动态链路预测(转导/归纳设置,3种负采样策略)和动态节点分类任务的实验表明,DyGFormer在多数数据集上实现SOTA性能。

2025-09-01 20:58:57 1150

原创 学习笔记——负采样策略

提示:仅供学习动态图神经网络方向的参考在机器学习(尤其是图学习任务如动态链路预测)中,负采样策略是为解决“正负样本不平衡”和“计算成本过高”而设计的样本选择方法。其核心背景是:在链路预测任务中,“真实存在的链路(正样本)”数量远少于“理论上不存在的链路(负样本)”(例如社交网络中,绝大多数用户对从未产生交互)。若直接使用所有负样本训练,会导致计算量爆炸且模型偏向预测“负样本”(因负样本占比过高)。因此,负采样策略通过从海量负样本中筛选部分有代表性的样本,与正样本共同构成训练集,以高效且可靠地优化模型。

2025-09-01 18:22:37 856

原创 NODE-TIME CONDITIONAL PROMPT LEARNING IN DYNAMIC GRAPHS论文阅读笔记

这张图清晰展示了“预训练打底 → 提示调优适配下游”先在通用动态图任务(链路预测)上预训练,让模型学会动态图的基础交互规律;再用 “双提示 + 双条件网络” 针对性调整,让预训练模型能适配下游具体任务(如节点分类),既复用预训练知识,又解决任务差异和时间变化的问题。简单说,就是“先学通用能力,再用提示定制化适配”,这也是当前预训练 + 提示调优范式的核心逻辑~

2025-07-15 01:42:17 270

第10章 文件与文件夹操作.pptx

第10章 文件与文件夹操作.pptx

2021-12-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除