
文章主要内容总结
本文聚焦于联邦大语言模型(FedLLMs)在边缘网络(CyberEdge Networks)中的模型投毒攻击问题,核心内容如下:
-
FedLLMs的背景与挑战:FedLLMs通过联邦学习框架实现分布式训练,在保护数据隐私的同时整合边缘设备(如智能医疗设备、自动驾驶车辆、物联网设备)的知识,但易受模型投毒攻击——攻击者通过生成恶意本地更新操纵全局模型,导致性能下降或特定任务失效。
-
现有防御机制的局限性:当前防御手段(如基于距离的异常检测、范数约束、拜占庭 resilient 聚合器等)依赖“恶意更新与良性更新存在显著统计差异”的假设,在面对针对数十亿参数LLM的自适应攻击者时失效,尤其在非独立同分布(non-IID)文本数据场景下表现不佳。
-
GRMP攻击范式:提出基于图表示的模型投毒(Graph Representation-Based Model Poisoning, GRMP),通过三阶段流程(图构建、生成模型训练、恶意更新生成)利用图神经网络(GNN)编码器和解码器,学习良性更新的高阶相关性,生成与合法更新难以区分的恶意更新,有效逃避现有防御。
-
实验验证:在文本分类任务(AG News数据集)中,GRMP攻击
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



