该文章聚焦联邦学习(FL)中大型语言模型(LLMs)的跨客户端训练数据记忆问题,提出了新的评估框架并揭示了影响记忆的关键因素,填补了集中式学习(CL)记忆评估方法在FL场景的应用空白。
一、文章主要内容
-
研究背景
- FL虽能实现多客户端协同训练且不共享原始数据,但LLMs仍存在训练数据记忆风险,可能泄露敏感信息。
- 现有FL记忆检测技术(如金丝雀注入)仅关注单样本记忆,低估跨样本记忆风险;而CL的细粒度跨样本记忆评估方法因依赖集中式数据,无法直接应用于FL。
-
核心框架
- 提出量化FL中客户端内(Intra-client) 和客户端间(Inter-client) 记忆的框架,通过 pairwise 技术扩展CL方法,评估不同客户端前缀诱导模型记忆其他客户端后缀的程度。
- 采用PAN2014抄袭检测器,从逐字(Verbatim)、释义(Paraphrase)、观点(Idea) 三个粒度衡量文本相似度,判断模型是否记忆。
-
关键实验与发现
- 记忆存在性:FL模型确实会记忆训练数据,且客户端内记忆(如同一客户端前缀记忆自身后缀)普遍

订阅专栏 解锁全文
272

被折叠的 条评论
为什么被折叠?



