Face De-Spoofing: Anti-Spoofing via Noise Modeling
论文简介
将非活体人脸图看成是加了噪声后失真的x,用残差的思路检测该噪声从而完成分类。
文章引用量:40+
推荐指数:✦✦✦✦✧
[4] Jourabloo A, Liu Y, Liu X. Face de-spoofing: Anti-spoofing via noise modeling[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 290-306.
作者认为现有的大部分人脸活体分类算法都是把图像当作一个不可再分割的整体来处理,没有对假冒过程详细建模,所以呢,受到噪声模型和去噪算法的启发,作者提出人脸活体领域的新思路:把假冒人脸分解为假冒噪声(spoofing noise)和真人脸,然后用噪声做分类,Figure 1 所示。但是噪声是没有ground truth的,作者为此在合理的约束和监督信息的基础上设计了一个CNN网络来解决这个问题。实验结果显示噪声模型对分类任务是有帮助的,还把噪声的feature map做了可视化,有助于理解产生假冒的各种媒介。

作者收到de-X问题启发,比如图像去噪、去模糊等,认为假冒人脸和上述情况类似,是对真人图像用增加“特殊噪声”的方法重新渲染,既然高斯噪声、椒盐噪声可以对其建模和去除,“假冒噪声”也可以用类似的办法建模,如把假冒人脸图像x ∈ Rm 看成真人图像xˆ 、退化矩阵A ∈ Rm×m 和加性噪声n ∈ Rm 的函数:

通过估计N (xˆ)和xˆ,从x去掉噪声 。对于真人样本,该模型返回xˆ本身,噪声为“0”。作者认为可以处理纸质攻击和回放攻击,优势有二:反向过程,也就是产生假冒的过程,可以帮助我们对不同假冒媒介的噪声模式建模和可视化;假冒攻击噪声本身可用于区分活体与非活体。虽然“去假冒”和其他de-X问题很相似,也有其“专属”的难点:没有ground truth,de-X通常使用人工合成的数据,原图就可以作为ground truth,对于假冒人脸,不存在去掉所有噪声的真人脸作为ground truth;没有噪声模型,之前没有类似的研究成果,不确定是否能存在一个合理的解的空间;攻击媒介多变,每种攻击类型都可能产生特定的噪声类型。作者参考Binary那边提出合成噪声模式和重建真人图像的CNN,并且用类似于GAN的思路来检验重建人脸的质量。
主要贡献
- 作者为活体识别(打印攻击和回放攻击)提供一个崭新的视角,即在没有ground truth的情况下,将攻击样本分解为真人和攻击噪声;
- 利用适当的约束和辅助监督信息,提出人脸去假冒CNN框架;
- 通过人脸防假冒攻击实验和假冒噪声可视化证明人脸去假冒模型的意义。</

本文介绍了一种基于噪声建模的人脸活体检测方法,通过分解假冒人脸为真实人脸与噪声,利用CNN网络进行噪声检测与分类,有效识别假冒攻击。
最低0.47元/天 解锁文章
2063

被折叠的 条评论
为什么被折叠?



