隐私保护:差分遗忘混洗实现差分隐私
1. 引言
差分隐私已成为隐私保护数据分析的主流方法。传统的差分隐私机制在策展人模型下运行,即一个可信的服务器持有所有敏感数据,并发布关于这些数据的噪声统计信息。为减少必要的信任假设,研究人员随后提出了差分隐私的本地模型。在本地模型中,每个用户将本地随机化器 $R$ 应用于其敏感数据 $x_i$ 以获得噪声结果 $y_i$,然后将 $y_i$ 转发给服务器进行分析。然而,本地机制的一个缺点是,在某些情况下,与策展人模型中的机制相比,对于固定的隐私级别,它们需要更多的噪声(从而降低了实用性)。
近期的一系列工作探索了一种介于两者之间的模型——混洗模型。在混洗模型中,用户像本地模型一样在本地为数据添加噪声,但还可以使用一个可信实体 $S$(“混洗器”)在数据转发到服务器之前对其进行匿名化处理。也就是说,在本地模型中,服务器获得的是有序的噪声输入向量 $(y_1, …, y_n)$,而在混洗模型中,服务器仅获得多重集 ${y_i} := S(y_1, …, y_n)$,这隐藏了哪个元素由哪个用户贡献的信息。Balle 等人分析了将本地差分隐私机制与混洗器组合的结果,并展示了在某些情况下,混洗模型比本地模型提供了更优的隐私/实用性权衡。
尽管混洗模型比策展人模型依赖的信任假设更弱,但依赖一个假定不会与策展人勾结的可信混洗器可能仍然不可取。因此,自然会考虑用用户自己执行的分布式协议来取代混洗器。虽然使用完全安全的混洗协议可以保留混洗模型的隐私保证,但完全安全的分布式混洗协议在实践中效率较低。
2. 相关工作
- 安全混洗 :有大量工作研究安全混洗协议。完全安全的混
超级会员免费看
订阅专栏 解锁全文
746

被折叠的 条评论
为什么被折叠?



