本文是LLM系列文章,针对《ATTACKS ON THIRD-PARTY APIS OF LARGE LANGUAGE MODELS》的翻译。
摘要
大型语言模型(LLM)服务最近开始提供一个插件生态系统来与第三方API服务交互。这项创新增强了LLM的能力,但也带来了风险,因为这些由各种第三方开发的插件不容易被信任。本文提出了一种新的攻击框架,用于检查包含第三方服务的LLM平台中的安全和安全漏洞。将我们的框架专门应用于广泛使用的LLM,我们可以识别跨第三方API的各种域的真实恶意攻击,这些攻击可以不知不觉地修改LLM输出。本文讨论了第三方API集成带来的独特挑战,并为提高LLM生态系统的安全性提供了战略可能性。我们的代码发布于https://github.com/vk0812/Third-Party-Attacks-on-LLMs.
1 引言
2 提出的流水线
3 实验
4 结论
我们的论文介绍了对集成到LLM生态系统中的第三方API的三种攻击。随着LLM越来越多地配备API,通过访问最新信息、执行复杂计算和通过API调用外部服务来更好地响应用户请求,这