Distilling & Exploring

介绍了两篇CVPR19文章,第一篇将Knowledge distillation用于目标检测,通过关注teacher model检测相邻anchor帮助student model模仿;第二篇探索context信息对检测的作用,结论是其难处理localization error,在区分前景和背景上有一定作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Distilling Object Detectors with Fine-grained Feature Imitation

Exploring the Bounds of the Utility of Context for Object Detection

两篇CVPR19文章。 没细看, 主要是关注一下他们做的方向和提出的一些结论。

第一篇是Knowledge distillation的应用, teacher model辅助student model学习, 一般是用于轻量化网络设计。这里应该是首次将该方法用于detection。核心思想是‘since detectors care more about local object regions, the discrepancy of feature response on close anchor locations near the object alsoconveys important information about how a complex detection model detects the object instances’,关注teacher model是如何检测相邻anchor的有助于帮助student model更好的模仿。

 

第二篇是探索context信息对于检测来说究竟有没有用, 有多大的作用? 大致的结论是context信息很难处理localization error,  在分变前景和背景上有一些作用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值