[2021CVPR]General Instance Distillation for Object Detection 论文笔记

该论文提出了一种名为一般实例蒸馏(GID)的方法,旨在提高目标检测器的通用性和性能,无需依赖GT框。GID通过特征、关系和响应基的蒸馏,使学生模型在多个检测框架下超越教师模型,具有广泛适用性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.摘要

主要出发点:1.通用性,现有的方法对不同检测器通用性差;2.严重依赖于GT框,而忽略了不同实例之间的关系。作者提出的方法称为一般实例蒸馏(general instance distillation),其不考虑GT带来的正负区别。

作者认为将分类中蒸馏的方法直接用到检测中不行是因为检测中正负样本非常不平衡。[14]和[34]都是解决正负样本不平衡问题来解决蒸馏检测。但是,作者认为只用GT相关的区域来做蒸馏会忽视背景的潜在信息。因此,作者将一般实例(图像)作为蒸馏目标,结合了response-based、feature-based和relation-based三种方法来同时做蒸馏,让student模型效果超越了teacher模型,并且具有很强的通用性,可以应用于一阶段、两阶段、anchor-free方法。

2.Method

2.1实例选择

一个实例指的是一个预测结果。对student和teacher做蒸馏,就是要缩小他们之间的difference,作者用预测的类别分数差(L1距离)来表示这种差异,并选取teacher和student之间类别分数差很大的预测结果,取top k个。max0<c<C是因为每个预测结果会包含边界框结果和所有类别的结果,max表示直接选类别最高的分数来代表这个预测结果的P。第一个公式表示对实例r在相同类别预测结果中求差的最大值,第二个表示teacher和student谁的所有类别预测值中高,最选谁。然后在所有选出来的实例中进行0.3阈值的NMS,再取top k=10个实例来做后续的蒸馏。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值