On the Robustness of Verbal Confidence of LLMs in Adversarial Attack

在这里插入图片描述

文章主要内容总结

本文首次全面研究了大型语言模型(LLMs)的语言置信度(verbal confidence) 在对抗性攻击下的鲁棒性。语言置信度指LLMs用自然语言表达对自身输出正确性的信心(如“答案是A,置信度80%”),其准确性和稳定性对高风险领域(如医疗、法律)的人机交互至关重要。

研究核心包括:

  1. 攻击框架设计:提出两类攻击方法——基于扰动的攻击(如VCA-TF、VCA-TB,通过同义词替换、字符错误等修改输入)和基于越狱的攻击(如ConfidenceTriggers,通过优化触发短语降低置信度)。
  2. 实验验证:在多个数据集(MedMCQA、TruthfulQA等)和模型(Llama-3-8B、GPT-3.5等)上验证,发现攻击可使平均置信度降低30%,并导致答案变化率高达100%(在原本正确的样本中)。
  3. 防御有效性分析:现有防御方法(如 paraphrase、SmoothLLM)对这类攻击基本无效,甚至可能适得其反。
  4. 关键发现:LLMs的语言置信度对细微语义保留的修改高度敏感,低置信度场景下更易受攻击,且现有置信度诱导方法(如CoT、Self-Consistency)均存在漏洞。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值