自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 精读Community-Centric Graph Unlearning---论文总结

目前主流的确定性图遗忘框架(如 GraphEraser, GUIDE)大多遵循的范式。:为了追求子模型训练时间的均衡,往往采用强制的均衡划分(Balanced Partitioning),这破坏了图原本的拓扑结构,导致子图间原本相连的关键结构信息丢失。:每个子模型都需要独立代表原始图的特征,导致参数量大。遗忘时需要重新训练受影响的子模型并进行聚合,对于大图来说,时间和计算成本依然很高。为了解决上述问题,作者提出了一种新的范式和具体方法。:利用将原始图中的“社区”映射为新图中的“节点”。

2026-01-09 09:37:14 513

原创 GIF: A General Graph Unlearning Strategy via Influence Function ---论文总结

为了计算上述公式,必须确定哪些邻居受到了影响。全图计算太慢,作者根据 GNN 的层数 k(聚合范围)定义了受影响的局部区域 Nk。根据论文Lemma 3删除节点 v。受影响区域:Nk+1​(v)(v的k+1跳邻居)解释:因为节点移除改变了拓扑结构,影响传播范围比单纯的特征传播更广。删除边 eij。受影响区域:Nk​(eij​)(边两端节点的 k跳邻居并集)。删除节点 v 的特征 xv。Nk​(v)(v 的k 跳邻居)。用户要求遗忘某节点/边/特征。

2025-12-22 17:56:46 735

原创 Graph Unlearning---论文总结

近年来,随着《通用数据保护条例》(GDPR)、《加州消费者隐私法案》(CCPA)等法律法规的颁布,数据隐私保护成为了全球关注的焦点。其中最重要且最具争议的条款之一是。这意味着数据主体(用户)有权要求服务提供商删除其存储的个人数据。

2025-12-15 11:05:33 1180

原创 GNNDELETE: A General Strategy for Unlearning in Graph Neural Networks---论文总结

图神经网络已经成为处理图结构数据(如社交网络、生物分子、推荐系统)的主流工具。在现实世界中,图数据通常是动态演化的,不断有新的节点加入,也有旧的节点或边不再适用。

2025-12-11 16:39:05 970

原创 What Matters in Graph Class Incremental Learning? An Information Preservation Perspective---论文总结

在现实世界中,图数据是持续生成的。例如在学术引用网络中,新的论文类型和引用关系不断出现。一个理想的文献分类器需要能够持续区分新型研究领域的文献,这正是图分类增量学习要解决的问题。

2025-12-06 20:05:06 1108

原创 Beyond Redundancy: Information-aware Unsupervised Multiplex Graph Structure Learning---论文总结

3、对比学习的局限性,传统对比学习通过最大化不同试图之间的交互信息来学习表示,但这仅适用于冗余视图,在非冗余多重图中,仅捕捉共享信息会导致视图特有信息的丢失,从而影响表示的质量和下游任务的性能。2、多重的非冗余性,传统方法假设“多个图信息差不多,重复的才是最有用的”,真实是:每个图都有自己独特的、对任务有用的信息,不能被其他图完全代替。:使得最终的变换矩阵是对称的、半正定的,具有很好的数学性质,并能被理解为在图上定义的一种。即:在已知其他所有视图的前提下,视图 i 能额外提供的关于任务 Y 的信息。

2025-12-06 12:23:34 737

原创 LLMsasZero-shot Graph Learners: Alignment of GNNRepresentations with LLM Token Embeddings---论文总结

核心问题: 图机器学习,特别是图神经网络,在面对零样本场景时,泛化能力严重不足。所谓零样本,就是指模型在训练时完全没有见过目标数据集或目标任务的标签。现有方法的局限性:传统GNNs: 如GCN, GAT, GraphSAGE等,虽然在特定数据集和任务上表现出色,但其学习到的表征高度依赖于训练时的数据分布和任务目标,难以直接迁移到新的、未知的图数据上。自监督GNNs: 如DGI, GraphCL等,通过对比学习等方式进行预训练,减少了对标签的依赖。但在应用于下游任务时,通常仍需要一个任务特定的微调过程,这破坏

2025-12-01 11:23:32 1293

原创 RELIEF: Reinforcement Learning Empowered Graph Feature Prompt Tuning---论文总结

总结:本论文受大模型中提示边际效应启发,首次将强化学习引入图特征提示 tuning,提出了RELIEF方法。它通过序列决策,策略性地为图注入必要且轻量的特征提示,从而在少样本场景下显著提升了预训练GNN的下游任务性能。我们的核心贡献新视角:提出了通过添加“必要且轻量”的特征提示来增强预训练GNN性能的新思路,并设计了PCR和APM指标进行量化。新方法:首次将特征提示的添加过程形式化为序列决策问题,并提出了RELIEF这一基于混合动作空间RL的解决方案,集成了策略泛化技术以保证稳定性。强验证。

2025-12-01 08:56:08 851

原创 Hypergraph Motif Representation Learning---论文总结

首次形式化并提出了“h-motif预测”问题一种新颖的、针对h-motif的负采样策略一种融合超图与图卷积的h-motif表示学习模型。

2025-11-22 16:02:41 975

原创 Where to Mask: Structure-Guided Masking for Graph Masked Autoencoders---论文总结

这种方法不依赖于模型训练,而是直接使用现成的、经典的图论算法来给节点打分。核心思想:利用图本身固有的拓扑结构信息,通过一个固定的数学公式来定义节点的重要性。主要算法:PageRank算法PageRank简介:这原本是谷歌用来衡量网页重要性的算法。其基本思想是:一个被很多重要节点(网页)指向的节点,它自己也必然是重要的。一个节点指向的外链越少,那么它对每个被指向节点的“投票”权重就越高。在图中的体现。

2025-11-20 10:22:02 1066

原创 Cross-Domain_Graph_Level_Anomaly_Detection---论文总结

首次提出跨领域图级异常检测问题,并给出解决方案。提出ARMET,结合 GNN 与对抗域适应,适用于源域只有正常图的场景。引入结构特征提取器和类别对齐器,提升跨域表示的对齐与判别能力。在多个真实数据集上验证了方法的有效性。

2025-11-18 15:41:37 938

原创 State of the Art and Potentialities of Graph-level Learning--论文总结(图综述)

以。

2025-11-11 17:05:07 649

原创 排序链表(python)

给你链表的头结点head,请将其按排列并返回。

2025-11-05 21:49:00 260

原创 python字符串基础语法

2025-11-05 21:23:42 188

原创 GraphGPT: Graph Instruction Tuning for Large Language Models-----论文总结

使用强大的闭源模型(如GPT-3.5)为训练数据生成带CoT推理步骤的答案用这些高质量的CoT数据进行指令微调,教会GraphGPT分步推理(也就是用GPT根据问题,得到分步式推理回答。然后问GraphGPT同样的问题,通过损失函数训练它,使它的输出像GPT的回答一样,也就是让GraphGPT也学会像GPT一样推理)不需要增大模型的规模,就可以获得强大的推理能力范式创新:首次提出图指令微调范式,将LLM的强大泛化能力引入图学习领域。技术巧妙用图Token而非文本描述图结构,高效且保留信息。双阶段微调。

2025-11-04 21:17:45 1199

原创 两两交换链表中的节点

给你一个链表,两两交换其中相邻的节点,并返回交换后链表的头节点。你必须在不修改节点内部的值的情况下完成本题(即,只能进行节点交换)。

2025-11-03 21:59:04 333

原创 两数相加(python)

给你两个的链表,表示两个非负的整数。它们每位数字都是按照的方式存储的,并且每个节点只能存储数字。请你将两个数相加,并以相同形式返回一个表示和的链表。你可以假设除了数字 0 之外,这两个数都不会以 0 开头。

2025-10-30 17:09:23 254

原创 环形链表II(python)

给定一个链表的头节点head,返回链表开始入环的第一个节点。如果链表无环,则返回null。如果链表中有某个节点,可以通过连续跟踪next指针再次到达,则链表中存在环。为了表示给定链表中的环,评测系统内部使用整数pos来表示链表尾连接到链表中的位置(如果pos是-1,则在该链表中没有环。pos,仅仅是为了标识链表的实际情况。链表。返回索引为 1 的链表节点链表中有一个环,其尾部连接到第二个节点。返回索引为 0 的链表节点链表中有一个环,其尾部连接到第一个节点。返回 null链表中没有环。

2025-10-29 18:55:32 415

原创 环形链表(python)

给你一个链表的头节点head,判断链表中是否有环。如果链表中有某个节点,可以通过连续跟踪next指针再次到达,则链表中存在环。为了表示给定链表中的环,评测系统内部使用整数pos来表示链表尾连接到链表中的位置(索引从 0 开始)。pos。仅仅是为了标识链表的实际情况。如果链表中存在环,则返回true。否则,返回false。true链表中有一个环,其尾部连接到第二个节点。true链表中有一个环,其尾部连接到第一个节点。false链表中没有环。-1。

2025-10-29 18:26:40 667

原创 回文链表(python)

创建两个指针,快指针一次走两步,慢指针一次走一步 ,当快指针走到终点时,此时慢指针刚好位于中心位置。之后从中心位置开始,反转后半部分指针,比较前半部分指针和反转后的后半部分指针,若每个结点的值相同,则为回文。把链表中的数值,全部添加到数组中,之后使用切片反转,直接判断两个列表是否相等。,请你判断该链表是否为回文链表。给你一个单链表的头节点。

2025-10-29 18:12:15 315

原创 反转链表(python)

当递归到最后一个节点时,将其作为新头返回,然后逐层回溯修改指针。2、反转节点的指针,是指针指向前一个结点curr.next=pre。pre:表示前面已经反转过的节点的第一个节点(初始为None)3、向前推进 pre=curr,curr=next_term。1、保存next_term=curr.next 防止断链。curr:表示当前正在处理的节点(初始为head)next_term:保存下一个节点,防止断链。,请你反转链表,并返回反转后的链表。注意:头指针和头节点的区别。逐个反转节点的next指针。

2025-10-29 17:59:12 350

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除