【论文精读】Towards Understanding Jailbreak Attacks in LLMs: A Representation Space Analysis

论文:Towards Understanding Jailbreak Attacks in LLMs: A Representation Space Analysis

作者:Yuping Lin1, Pengfei He1, Han Xu1, Yue Xing1, Makoto Yamada2, Hui Liu1, Jiliang Tang1

发表:arxiv

代码:https://github.com/yuplin2333/representation-space-jailbreak

摘要

大型语言模型(LLM)容易受到一种被称为 "越狱 "的攻击,这种攻击会误导 LLM 输出有害内容。虽然越狱攻击策略多种多样,但对于为什么有些方法会成功,有些方法会失败,还没有统一的认识。本文探讨了有害和无害提示在 LLM 表示空间中的行为,以研究成功越狱攻击的内在属性。我们假设,成功的攻击具有一些相似的特性:它们能有效地将有害提示的表征向无害提示的方向移动。我们利用现有越狱攻击目标中的隐藏表征,使攻击沿着接受的方向移动,并利用提出的目标进行实验来验证上述假设。我们希望这项研究能为理解 LLM 如何理解有害信息提供新的见解。

方法

问题一:表征空间是什么?如何定义或者学习得来的?为什么能用来表示提示词

这个表征空间就是嵌入向量的维度,即提示词长度n乘以词汇表大小m,得到d纬的嵌入向量,再通过PCA主成分分析,对d纬向量降为到2纬空间

问题二:方向是什么?如何确定的。方向的改变意味着什么?

经过PCA降纬后的空间,观察几个数据,成功的越狱提示,失败的越狱提示,有害/无害的锚点提示,发现一个现象是越狱成功的提示中心从有害中心向无害中心移动,这个方向就是成功越狱提示引导的方向。方向改变意味着模型对该提示词的认知从有害转向无害。

观察对象:

1. 无害的锚点提示词

2. 有害的锚点提示词

3. 初始化的越狱提示词(包括成功的越狱攻击和失败的越狱攻击)

观察表征空间提示词发现:

1. 有害和无害的锚点提示词是分开的:作者观察到llama2-7b,llama2-13b,llama3-8b三个模型都能将有害和无害的提示词进行区分,但是未经过对齐的gemma-7b不能很好的区分有害/无害提示词,说明对齐的模型具备区分提示词有害/无害的能力

2.成功的越狱提示会将有害提示词引向无害提示词

从这一表格中可以观察到,大部分结论可以说明,成功越狱的提示词中心在向无害提示词中心移动,但是gemma-7b的一些结论不能说明这一观察,作者分析这是因为模型本身的对齐能力没有得到解释。

实验

作者提出将提示词从有害方向像无害方向转变可以增大提示的越狱成功率,所以提出下面的优化函数:

\underset{x}{max}L(x)=[g(h(x))-g(h(x_0))]^\top e_\alpha

但是该优化函数会使模型输出不符合主题的内容,所以作者提出一个优化策略:

首先通过字符串检测,对输出文本检测,如果现实越狱成功则继续生成,否则停止并重新生成,如果通过第一次检测,再利用微调的LLM进行检测,判断是否属于越狱内容。

附录

PCA降维,作者选取了模型最后一层的嵌入向量作为输入数据。

### AI-Native Memory 的定义与发展 AI-native memory 是指一种专为人工智能设计的记忆机制,它不仅能够存储大量的数据,还能支持复杂的推理、学习以及动态更新。这种记忆形式超越了传统的大语言模型(LLMs)所依赖的静态参数化结构,而是更接近于人类的认知记忆体系[^1]。 #### LLMs 中的记忆特性 在现有的大型语言模型中,“记忆”主要体现在两个方面:一是预训练阶段的数据吸收;二是上下文窗口内的短期记忆能力。然而,这些方法存在局限性——它们无法长期保存特定信息或灵活调整已有的知识库。当讨论从LLMs向AGI过渡时,构建一个可以持续积累经验并有效调用的历史记录系统变得至关重要[^2]。 #### AGI 对记忆的需求 为了实现真正意义上的通用智能(AGI),需要开发出具有以下特性的新型记忆架构: - **持久性和适应性**: 能够长时间保留重要信息的同时不断纳入新知; - **关联检索功能**: 支持快速找到与当前情境最相关的过往经历片段; - **跨模态整合能力**: 不仅限于文字资料,还应涵盖图像、声音等多种感官输入形式[^3]。 这样的高级别记忆框架将允许未来的AI agents更好地理解世界,并作出更为精准恰当的行为选择。 ```python class AIMemorySystem: def __init__(self): self.long_term_memory = {} self.short_term_context = [] def store(self, data, type='short'): if type == 'long': self.long_term_memory.update(data) elif type == 'short': self.short_term_context.append(data) def retrieve(self, query): results = [] for key in self.long_term_memory.keys(): if query in key: results.append((key,self.long_term_memory[key])) return results # Example Usage memory_system = AIMemorySystem() memory_system.store({"fact":"The capital of France is Paris."},type="long") print(memory_system.retrieve("France")) ``` 上述代码展示了一个简单的模拟版本的人工智能记忆系统的类定义及其基本操作函数。 ### 结论 综上所述,在通往AGI的路上,创建和完善AI-native memory将是不可或缺的一环。这一步骤旨在克服现有技术瓶颈,使机器拥有类似于甚至优于人类的学习进化潜力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值