Fast Human Pose Estimation
Abstruct
现在的Pose框架虽然精度以及泛化能力已经不错,但是模型过于复杂,使得参数量以及部署时消耗的内存过大。 这篇文章就是通过牺牲极少部分的精度来达到大幅度减少内存的消耗的目的。作者主要是通过用训练好的教师网络(大网络)将知识传递给学生网络(小网络)来实现这一目的,他们称他们的方法为Fast Pose Distillation(FPD)。最终使用时只需要将学生网络部署在设备上即可。 作者在MPII与LSP数据集上做了验证,证明了他们的方法的有效性。
Introduction
现在做Pose的绝大多数在追求精度而忽略了内存的消耗,而作者从减少内存消耗而基本不减少精度方面出发提出FPD。本文作者针对Hourglass做的实验,将提前训练好的参数量大的HourglassNet作为教师网络。然后通过将Knowledge Distillation的思想应用到Pose上来训练学生网络。最后在精度与内存消耗上达到了更好的平衡。
Related Work
human pose
最近五年pose取得巨大的进展,但绝大部分人都是致力于使用更加复杂的模型来达到更高的精度而忽略了模型的部署消耗,从而限制了Pose研究成果在实际中的应用。
其实,也有少部分人在研究提高模型效率的问题。但他们的方法几乎都大大减少了精确度。作者的方法在精确度基本不变的情况下,大大减少了内存消耗。
Knowledge Distillation
知识蒸馏具体传递的就是教师网络的预测输出,即将教师网络的输出也作为监督信息的一部分。拿分类任务来说,就是传递了各个类别的可能性,这相对于人工标注的数据更利于小网络的学习。因为其包

本文介绍了一种名为FastPoseDistillation(FPD)的方法,它通过知识蒸馏技术,从大型教师网络中提取信息,训练小型学生网络进行人体姿态估计,实现了在精度基本不变的情况下大幅减少内存消耗的目标。实验在MPII和LSP数据集上验证了FPD的有效性。
最低0.47元/天 解锁文章
3265

被折叠的 条评论
为什么被折叠?



