论文标题: Security and Privacy Challenges of Large Language Models: A Survey
作者: Badhan Chandra Das, M. Hadi Amini, Yanzhao Wu
发表日期: 2024年2月
论文链接: arXiv:2402.00888
摘要:
这篇综述论文全面探讨了大型语言模型(LLMs)在安全性和隐私方面的挑战。LLMs在多个领域展现出了卓越的能力,如文本生成、摘要、语言翻译和问答。然而,这些模型也面临着安全和隐私攻击的脆弱性,例如越狱攻击、数据投毒攻击和个人身份信息(PII)泄露攻击。作者全面回顾了LLMs在训练数据和用户方面的安全和隐私挑战,以及在交通、教育和医疗等不同领域的应用风险。论文评估了LLMs的脆弱性,调查了针对LLMs的新兴安全和隐私攻击,并回顾了潜在的防御机制。此外,论文概述了该领域的现有研究空白,并强调了未来的研究方向。
主要内容:
-
LLMs的兴起与应用:
- LLMs在学术和工业界越来越受欢迎,能够处理从日常语言沟通到特定挑战的广泛任务。
- 它们通过预训练和微调过程,学习语言的深层结构、模式和上下文关系。
-
安全与隐私挑战: