RoCoIns: Enhancing Robustness of Large Language Models through Code-Style Instructions

828 篇文章

已下架不支持订阅

本文提出RoCoIns方法,通过使用结构更清晰的代码风格指令来增强大型语言模型(LLM)的稳健性,降低其对自然语言指令的模糊性和对抗性样本的敏感性。此外,还提出一种对抗性上下文方法,以在小样本场景下提高LLM的鲁棒性。实验结果显示,该方法在多个数据集上优于仅使用自然语言指令的方法,提升了模型的准确性和降低了攻击成功率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《RoCoIns: Enhancing Robustness of Large Language Models
through Code

RoCoIns:通过代码风格指令增强大型语言模型的鲁棒性

摘要

大型语言模型(LLM)在遵循人类指令方面表现出了非凡的能力。然而,最近的研究对LLM在使用结合文本对抗性样本的指令提示时的稳健性提出了担忧。在本文中,从LLM对指令设计敏感的最新工作中获得灵感,我们使用代码风格的指令来取代典型的自然语言指令,这种指令更具结构性,不那么模糊。通过这种转换,我们为LLM提供了更精确的指令,并增强了LLM的稳健性。此外,在少小样本场景下,我们提出了一种新的方法,使用干净样本和对抗性样本来合成上下文演示(对抗性上下文方法),以进一步提高LLM的稳健性。在八个鲁棒性数据集上的实验表明,我们的方法始终优于使用自然语言指令的提示LLM。例如,使用gpt-3.5-turbo,我们的方法在测试集准确性上提高了5.68%,在攻击成功率(ASR)上降低了5.66点。

1 引言

2 背景

3 方法

4 实验

5 分析

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值