人脸图像隐私保护:从实验到框架构建
实验部分
在人脸图像隐私保护的研究中,为了验证相关方法的有效性,进行了一系列实验。
数据集
使用大规模的CelebFaces Attributes(CelebA)数据集,该数据集包含202,599张对齐的面部图像和10,177个身份,每个图像有40个布尔值的属性标签。实验中使用了约一半的数据集,其中75,160张图像用于训练,26,216张图像用于测试。所有图像首先对齐到178×218,然后使用dlib包检测面部区域,将图像裁剪为128×128的大小。
实现细节
- 属性预测 :使用Resnet - 50结构在CelebA数据集上训练面部属性分类网络。批量大小设置为128,基础学习率为4×10⁻⁴,采用多项式衰减,γ为0.1,权重衰减为5×10⁻⁴。
- 属性混淆 :对给定图像进行去标识处理时,首先按γ比例对训练集进行下采样,得到随机子集Dγ,然后从面部属性分类网络的全连接层中提取深度特征。实验中考虑保护13个属性,如秃头、刘海、黑发、金发等。定义了两组冲突属性:G1 = {黑发,金发,棕发}和G2 = {胡子,无胡子},其他属性定义为独立属性。
- 图像生成网络 :在获得混淆属性后,利用面部属性编辑来生成去标识的图像。按照特定设置在CelebA数据集上进行训练,权衡参数λ1 = 1,λ2 = 10,λ3 = 100。
性能分析
通过对比不同k值下引入差分隐私前后的混淆程度,使用
超级会员免费看
订阅专栏 解锁全文
508

被折叠的 条评论
为什么被折叠?



