面部去标识与共享单车系统平衡策略
面部去标识技术中的差分隐私与实验验证
在面部去标识(DeID)领域,数据属性的可复用性是一个重要话题。研究者通过差分隐私(DP)来评估面部图像的可复用性。在统计数据库领域,隐私保护广泛应用于基于查询的数据发布,如今已扩展到图像级别的隐私保护。
DP依赖于相邻数据库的概念,即仅在一条记录上有所不同的数据库。设 $B$ 和 $B’$ 为两个相邻数据集,$a$ 为从 $B$ 和 $B’$ 中获得的任意(数值)属性。若隐私保护机制 $\Psi$ 满足 $p(\Psi(B)(a) = \hat{v}) < e^{\epsilon} \times p(\Psi(B’)(a) = \hat{v})$,则称其为 $\epsilon$-差分隐私,其中 $\Psi(\cdot)(a)$ 表示隐私保护后属性 $a$ 的值,$\epsilon$ 表示 $\Psi$ 提供的隐私程度。
为了在语义层面评估面部图像的可复用性,研究者重新定义了 DP。将每个面部图像视为一个数据库,并重写了相关公式。设 $x’ = G(E(x))$ 是一个仅隐藏面部身份的合成面部图像,$\epsilon(x, x’)$ 是 $x$ 和 $x’$ 之间的可区分性水平。基于此,使用 $\epsilon(x, x’) = \log \frac{f_{u_c(x)}^c(x)}{f_{u_c(x’)}^c(x’)}$ 作为评估标准。对于去标识能力(即 $c = id$),$\epsilon(x, x’)$ 的值越大越好;对于其他属性,如种族、年龄和性别,$\epsilon(x, x’)$ 的值越小,属性保留效果越好。
在实验部分,研究者使用公开的 VGGFace2 数据集进行评
超级会员免费看
订阅专栏 解锁全文
11万+

被折叠的 条评论
为什么被折叠?



