目录
概要
本论文提出了一种名为RAPT的隐私保护型提示调整框架,用于大型语言模型服务中用户私有数据的个性化定制。RAPT采用本地隐私设置,使用局部差分隐私方法在用户端保护数据。针对直接在隐私化数据上训练提示调整效果不佳的问题。同时,研究引入了一种新的私有词元(token)重构任务,与下游任务共同训练,帮助大型语言模型更好地学习任务相关的表示。实验结果表明,RAPT在保证隐私安全的同时,在多个任务上取得了具有竞争力的性能。

相关工作
目前关于LLM隐私保护的研究大致可以分为集中式方法和本地式方法两种:
1.集中式的方法
现有的大多数工作集中于集中式隐私设置,这依赖于一个中央数据管理员来保护数据免受隐私泄露。本文的设置与所有的这些工作都不同。我们研究了在使用LLM服务时保护用户的私有数据,而不假设存在中央数据管理员。
2.本地式的方法
本地方法施加了更强程度的隐私保护,但代价是效用的损失(即下游任务的性能)本文采用了本地隐私设置的方法,并支持对微调和推理阶段的隐私保护,但它是轻量级的。 我们还引入了一种新的私有化词元重构任务,以提高在使用私有化数据进行训练和推理时的提示调优方法的性能。
核心方法
1.文本到文本私有化
LLM服务可能面临窃听等攻击,因此,通过用户在自己的设备上进行本地数据私有化,即采用本地隐私设置是比较好的。
RAPT框架中,使用文本到文本的私有化是基于dx隐私,这是一种基于距离的本地差分隐私松弛形式 ,广泛用于保护文本内容的隐私。形式上说,对于给定的输入集X和输出集Y,dx是定义在X上的距离函数。当且仅当对于任何x ∈ X,
∈ X,M(x)和M (
) 的输出分布以以下条件为限制时,称随机机制M:X → Y 满足隐私:
其中,η≥0为隐私参数,控制隐私保护程度。
为了使得文本到文本私有化,首先需要一个嵌入模型来将单词映射到向量,给定一个序列x = [x1, ......,xn]和一个嵌入模型E∈ ,其中|V|和d分别是嵌入的词汇量大小和维度,嵌入模型将x映射成向量序列 [
1, ......,
n](区别于输入)。假设以L2距离为距离函数,可以通过添加随机噪声z ∼ exp(−η|z||)(λ为−η||z||的指数分布)的方式,将带隐私参数η的dx应用到一个单词的嵌入
∈
中。设z = lv,采样z相当于首先对标量l ∼ Γ (d,
)(α为d