Distilling Object Detectors with Fine-grained Feature Imitation
Exploring the Bounds of the Utility of Context for Object Detection
两篇CVPR19文章。 没细看, 主要是关注一下他们做的方向和提出的一些结论。
第一篇是Knowledge distillation的应用, teacher model辅助student model学习, 一般是用于轻量化网络设计。这里应该是首次将该方法用于detection。核心思想是‘since detectors care more about local object regions, the discrepancy of feature response on close anchor locations near the object alsoconveys important information about how a complex detection model detects the object instances’,关注teacher model是如何检测相邻anchor的有助于帮助student model更好的模仿。
第二篇是探索context信息对于检测来说究竟有没有用, 有多大的作用? 大致的结论是context信息很难处理localization error, 在分变前景和背景上有一些作用。