本文是LLM系列文章,针对《PRIVACY ISSUES IN LARGE LANGUAGE MODELS: A SURVEY》的翻译。
大型语言模型中的隐私问题:综述
摘要
这是对人工智能研究活跃领域的首次调查,重点关注大型语言模型(LLM)中的隐私问题。具体而言,我们专注于红队建模的工作,以突出隐私风险,试图将隐私纳入训练或推理过程,使经过训练的模型能够有效删除数据,以符合现有的隐私法规,并试图缓解版权问题。我们的重点是总结开发算法、证明定理和进行实证评估的技术研究。虽然有大量的法律和政策工作从不同的角度应对这些挑战,但这并不是我们调查的重点。尽管如此,这些工作以及最近的法律发展确实为这些技术问题的形式化提供了信息,因此我们在第1节中简要讨论了这些问题。虽然我们已经尽了最大努力将所有相关工作包括在内,但由于这项研究的快速性,我们可能错过了最近的一些工作。如果我们错过了您的一些工作,请与我们联系,因为我们将努力使此调查保持相对最新。我们正在维护一个公开可用的存储库,其中包含本调查中涵盖的论文列表以及公开的任何相关代码.
1 动机
2 通用术语
3 记忆
4 隐私攻击语言模型
5 隐私保护大语言模型
6 版权
7 机器遗忘
8 结论
在本文中,我们涵盖了与使用大型语言模型相关的广泛隐私风险。随着这些模型不

本文深入探讨大型语言模型(LLM)的隐私问题,关注红队建模以揭示隐私风险,并讨论如何在训练和推理中保护隐私。研究涵盖了隐私攻击、保护策略、版权议题以及机器遗忘技术,旨在理解并缓解与LLM相关的隐私风险。
订阅专栏 解锁全文
275

被折叠的 条评论
为什么被折叠?



