本文是LLM系列文章,针对《Large Language Model Safety: A Holistic Survey》的翻译。
大型语言模型安全:一项全面调查
摘要
大型语言模型(LLM)的快速开发和部署为人工智能带来了新的前沿,其标志是在自然语言理解和生成方面具有前所未有的能力。然而,这些模型越来越多地集成到关键应用程序中,引发了大量的安全问题,需要彻底检查其潜在风险和相关的缓解策略。
这项调查全面概述了LLM安全的现状,涵盖了四大类:价值错位、对抗性攻击的鲁棒性、滥用和自主AI风险。除了对这四个方面的缓解方法和评估资源进行全面审查外,我们还进一步探讨了与LLM安全相关的四个主题:LLM代理的安全影响、可解释性在提高LLM安全性方面的作用、为LLM安全提出并遵守的人工智能公司和机构名单中的技术路线图,以及旨在LLM安全的人工智能治理,包括国际合作、政策建议和未来监管方向的讨论。
我们的研究结果强调了对LLM安全采取积极、多方面方法的必要性,强调了技术解决方案、道德考虑和稳健治理框架的整合。这项调查旨在为学术研究人员、行业从业者和政策制定者提供基础资源,深入了解与LLM安全融入社会相关的挑战和机遇。最终,它寻求为LLM的安全和有益发展做出贡献,与利用人工智能促进社会进步和福祉的总体目标保持一致。相关论文的精选列表已在