本文是LLM系列文章,针对《Many-shot Jailbreaking》的翻译。
摘要
我们调查了一系列对大型语言模型的简单长上下文攻击:数百次不良行为的演示。这在Anthropic、OpenAI和Google DeepMind最近部署的更大上下文窗口中是新可行的。我们发现,在不同的现实情况下,这种攻击的有效性遵循幂律,多达数百次。我们在最广泛使用的最先进的闭合重量模型上以及在各种任务中展示了这种攻击的成功。我们的研究结果表明,很长的上下文为LLM提供了一个丰富的新攻击面。
1 引言
2 攻击设置
3 MSJ的实证有效性
4 MSJ的扩张定律
5 了解针对MSJ的缓解措施
6 相关工作
7 HarmBench上的独立复制
8 结论
长上下文代表了控制LLM斗争的一条新战线。我们探索了一系列新的攻击,这些攻击由于上下文长度较长以及候选缓解措施而变得可行。我们发现,攻击的有效性,以及更普遍的上下文学习的有效性可以用简单的幂律来表征。与测量成功频率的标准方法相比&#x