Boosting the Safety of Instruction-Tuned Large Language Models with Reverse Prompt Contrastive

828 篇文章

已下架不支持订阅

本文介绍ROSE方法,一种无需额外训练即可增强LLM安全性的技术。通过反向提示对比解码抑制不良输出,ROSE在多个安全和通用任务上提高了模型性能,为LLM安全研究提供了新思路。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《ROSE Doesn’t Do That: Boosting the Safety of Instruction-Tuned Large Language Models with Reverse Prompt Contrastive Decoding》的翻译。

ROSE没有做到这一点:用反向提示对比解码提高指令调整的大型语言模型的安全性

摘要

随着指令调优大型语言模型(LLM)的发展,提高LLM的安全性变得更加重要。然而,当前将LLM输出与预期安全性相一致的方法通常需要大量的训练工作,例如高质量的安全数据和昂贵的计算资源,这是昂贵且低效的。为此,我们提出了反向prOmpt contrasstive dEcoding(ROSE),这是一种简单而有效的方法,可以在没有任何额外训练的情况下直接提高现有指令调整LLM的安全性。ROSE的原理是通过抑制由精心设计的反向提示引起的不希望的输出来提高期望的安全输出的概率。在6个安全任务和2个通用任务上的实验表明,我们的ROSE不仅在5种类型的指令调优LLM上带来了一致且显著的安全改进(高达+13.8%的安全分数),而且有利于LLM的通用能力。深入分析探讨ROSE的潜在机制,并揭示何时何地使用它。

1 引言

2 相关工作

3 方法

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值