人脸定位误差、遮挡和表情的子集建模
1. 引言
目标识别是计算机视觉及相关研究领域的核心问题。在计算机视觉中,目标识别有两个主要目标:一是构建能借助相机与环境交互的系统,广泛应用于人机交互、生物识别和通信等领域;二是深入了解生物系统的运作机制。人脸识别是研究这两个目标的重要窗口,因为人类大脑可能有专门区域用于分析人脸,人脸虽相似,但细微的特征差异能让人区分不同个体。
然而,设计能将人脸分类的计算机视觉系统并非易事。人们对人脸的感知会随表情、遮挡、光照和姿态变化而改变。早期研究主要聚焦于找到能代表个体在各种视角和光照条件下大部分人脸的子集,如运动结构和光度立体视觉。近期,Belhumeur和Kriegman证明任意点光源生成的图像子集在三维空间中是一个锥体,结合光度立体视觉可构建能从少量样本集合成和识别人脸的系统。
目前,在解决人脸定位误差、遮挡和表情变化这三个问题上也取得了进展:
- 人脸定位误差 :所有的人脸识系统都需要定位阶段,但定位算法存在误差,无法精确到像素级别。不准确的定位可能导致测试特征向量与错误类别的训练向量更接近,尤其在学习和测试图像的表情、光照不同或为重复图像时,问题更为关键。
- 遮挡 :人脸识别系统的一个主要缺点是难以稳健识别部分被遮挡的人脸,遮挡情况很常见,如面部毛发、眼镜、衣物等。
- 表情 :当学习和测试的人脸图像表情不同时,如何稳健识别个体身份是一个难题。随着表情变化,人脸局部纹理会显著改变,分类算法需要找到不变特征以实现表情不变的人脸识。
解决这些问题的一种方法是找到能代表个体在所有可能
超级会员免费看
订阅专栏 解锁全文
11

被折叠的 条评论
为什么被折叠?



