摘要:
- 本文探讨了生成性人工智能(GenAI)系统在多个行业中的扩展应用所带来的独特安全挑战,并概述了管理这些风险的潜在研究方向。
1. GenAI与传统安全的区别:
- GenAI系统,如大型语言模型(LLMs)、视觉语言模型(VLMs)和扩散模型,具有生成高质量内容的能力,这些能力超越了传统机器学习系统。
- GenAI模型可能成为攻击目标、无意中损害安全的工具,或被恶意行为者利用来攻击他人。
1.1 攻击目标:
- GenAI模型易受对抗性攻击和操纵,如越狱(jailbreaking)和提示注入(prompt injection)。
- 越狱技术通过特殊设计的提示操纵AI模型生成有害或误导性输出。
- 提示注入攻击通过在模型输入流中插入恶意数据或指令,使模型遵循攻击者的指令而非开发者的意图。
1.2 无意中的漏洞:
- GenAI系统可能在非对抗性或弱对抗性行为下产生漏洞,尤其是在其被误用或未充分保护的情境中。
1.3 工具:
- GenAI工具可能被恶意行为者用于创建恶意代码或有害内容,对数字安全系统构成重大威胁。
2. 现有方法的不足:
- GenAI系统与传统计算机系统在安全方面存在关键差异,需要新的方法来应对。
3. 潜在研究方向: