MM赶完,回来继续更论文了哈哈哈哈
一、研究背景
1.Deepfake detection模型存在统计学偏差,并对特定人群作出不公平的判断。
2.Fair loss function可以解决上述不公平检测问题,但在跨域测试时会失效。
3.许多工作致力于通过增加注释来解决Deepfake数据集中存在的数据偏差,但相关的公平性泛化问题一直没有得到有效解决。
二、研究动机
1.通过对比,发现公平性方法DAW-FDD和公平性损失DAW-FDD(UFC)在跨数据集测试时均会失效。
2.人种特征通常与面部特征紧密相关,移除人种相关特征r(X)Dr(X)_Dr(X)
该研究探讨了Deepfake检测模型的统计偏差和公平性问题,提出了解纠缠学习结合公平性损失的解决方案,旨在在跨数据集测试时保持公平性泛化。通过提取人口统计学和领域无关特征,设计了人种分布感知边界损失、对比损失、重建损失和解纠缠损失,以改善模型性能和公平性。同时,采用双层公平性损失和优化策略优化损失景观,增强公平性泛化能力。
订阅专栏 解锁全文
1543

被折叠的 条评论
为什么被折叠?



