《Supervised Descent Method and its Applications to Face Alignment》论文解读
这篇文章发表于CVPR2013,来自于CMU。论文原文见:
概述
许多机器学习问题可以看做是一个非线性优化问题。所谓非线性优化问题就是约束条件或者目标函数是非线性的。通常使用二阶导数的方法进行优化,比如牛顿法。像牛顿法这样的方法缺点有(1)函数可能不可导也不能数值估计(2)需要求Hessian矩阵,Hessian矩阵可能太大而且非正定。本文提出Supervised Descent Method(SDM)来最小化非线性最小二乘函数(Non-linear Least Squares)。值得注意的是,SDM是一种优化方法,用它来进行人脸特征点检测主要是用在目标函数的优化求解上。SDM与其他方法不同的地方在于:传统的牛顿法每次迭代的步长是计算得到的,而SDM每次的步长是通过对样本训练得到的。
如图,(a)图表示传统的牛顿法。牛顿法的迭代公式可以写成:
其中 H(xk) 为Hessian矩阵, Jf(xk) 为Jacobian矩阵。显然可知,牛顿法每一步的迭代步长 Δx 是计算得到的。(b)图就是本文提出的SDM方法,每次迭代的步长 Δx 是由 x 的值直接乘上
下面结合人脸特征点检测的任务具体说一说SDM方法。
SDM
人脸特征点检测的任务就是给定一张脸,然后标定出这张脸上的一些特征点。
如图,左边是手工标记的人脸特征点坐标,也就是人脸特征点任务中的最优解 x∗ ,右边是初始化时的特征点坐标,记做 x0 。
建模
d(x)

本文介绍了Supervised Descent Method (SDM)及其在人脸特征点检测中的应用。SDM作为非线性优化方法,解决了传统牛顿法在步长计算上的问题。通过对训练数据学习得到的迭代步长,SDM在人脸特征点检测任务上展现出优势,尤其在处理SIFT特征时。实验结果显示SDM在该领域的表现优于当时其他方法。
最低0.47元/天 解锁文章
4014

被折叠的 条评论
为什么被折叠?



