本文是LLM系列文章,针对《RoCoIns: Enhancing Robustness of Large Language Models
through Code
摘要
大型语言模型(LLM)在遵循人类指令方面表现出了非凡的能力。然而,最近的研究对LLM在使用结合文本对抗性样本的指令提示时的稳健性提出了担忧。在本文中,从LLM对指令设计敏感的最新工作中获得灵感,我们使用代码风格的指令来取代典型的自然语言指令,这种指令更具结构性,不那么模糊。通过这种转换,我们为LLM提供了更精确的指令,并增强了LLM的稳健性。此外,在少小样本场景下,我们提出了一种新的方法,使用干净样本和对抗性样本来合成上下文演示(对抗性上下文方法),以进一步提高LLM的稳健性。在八个鲁棒性数据集上的实验表明,我们的方法始终优于使用自然语言指令的提示LLM。例如,使用gpt-3.5-turbo,我们的方法在测试集准确性上提高了5.68%,在攻击成功率(ASR)上降低了5.66点。
1 引言
2 背景
3 方法
4 实验
5 分析
6 相关工作
7 结论
在本文中,我们建议RoCoIns利用代码风格指令而不是自然语言指令来增强闭源黑匣子模型对文本对抗性攻击的鲁棒性。代码风格的指令比自然语言指令更具结构性,不那么模棱两

本文提出RoCoIns方法,通过使用结构更清晰的代码风格指令来增强大型语言模型(LLM)的稳健性,降低其对自然语言指令的模糊性和对抗性样本的敏感性。此外,还提出一种对抗性上下文方法,以在小样本场景下提高LLM的鲁棒性。实验结果显示,该方法在多个数据集上优于仅使用自然语言指令的方法,提升了模型的准确性和降低了攻击成功率。
已下架不支持订阅
2293

被折叠的 条评论
为什么被折叠?



