典型常见的基于知识蒸馏的目标检测方法总结二

目标检测知识蒸馏方法汇总

来源:https://github.com/LutingWang/awesome-knowledge-distillation-for-object-detection收录的方法

NeurIPS 2017:Learning Efficient Object Detection Models with Knowledge Distillation

在这里插入图片描述

CVPR 2017:Mimicking Very Efficient Network for Object Detection

在这里插入图片描述

Feature Distillation

1)Ground Truth Guided

CVPR 2019:Distilling Object Detectors With Fine-Grained Feature Imitation

使用ground truth和预定义anchor对每个空间位置计算mask,基于mask来引导学生特征向教师特征的学习。

在这里插入图片描述

CVPR 2021:Distilling Object Detectors via Decoupled Features

在这里插入图片描述

将feature-level和classification head-level的特征根据binary mask划分为前景特征和背景特征,对前景特征和背景特征分别使用不同的权重进行解耦蒸馏。

在这里插入图片描述

2)Prediction Guided

NeurIPS 2021:Distilling Object Detectors with Feature Richness

在这里插入图片描述

首先,定义了一种Feature Richness Score,将特征图中的每个(x,y)坐标的预测最大的classification score定义为这个坐标的richness score,从而得到一层W*H的mask,运用这个mask来优化蒸馏学习。

在这里插入图片描述

在此基础上,蒸馏损失分为FPN层面的feature-level Distillation和classification head-level Distillation

在这里插入图片描述
在这里插入图片描述

ECCV 2022:Prediction-Guided Distillation for Dense Object Detection

首先,对于一个特征图上的坐标(x,y),作者定义了一个quality score

在这里插入图片描述
其中b代表一个bounding box,indicator表示如果坐标(x,y)在GT bounding box之内,则为1,如果不属于任何bounding box则为0;

pij(b)表示预测为GT bounding box的正确类别的分类概率,IoU表示预测框与GT框的IoU得分。

然后,作者将每个GT bounding box中quality score排名top-k的pixel取出来,作为集合To,并假设To服从正态分布Tok∼ N(μ,Σ|o),所以可以建模他们的热力图为:

在这里插入图片描述

如果一个像素点是多个排名top-k的bounding box像素点的重叠,那么I取多个重叠数值的最大值,再根据每个I求平均,得到mask矩阵

在这里插入图片描述

总的蒸馏损失分为cls和reg的feature-level的蒸馏,还有cls和reg的attention-level的蒸馏。

feature-level的蒸馏:classification的分支的特征蒸馏分为前景和背景的蒸馏,regression分支的特征蒸馏只考虑前景的蒸馏。

在这里插入图片描述
其中P代表空间注意力,A表示通道注意力,M为前景mask,N为背景mask

Attention-level的蒸馏:classification分支考虑空间注意力和通道注意力的蒸馏,regression分支只考虑前景mask引导的通道注意力的蒸馏

在这里插入图片描述

PR 2023:Task-balanced distillation for object detection

在这里插入图片描述

首先,作者定义了一种Harmonious predictions

pc是每个像素点的预测分类概率值最大的概率
在这里插入图片描述
pr是每个像素点预测的bounding box与GT bounding box的最大IoU得分。

然后作者定义了HS得分,用于平衡两个子任务的预测得分:
在这里插入图片描述
并在此基础上,定义了基于Harmonious的Distillation loss:
在这里插入图片描述
此外,作者更进一步引入了一种动态变化因子dynamic modulation factor,用于为每个空间像素点施加不同的损失权重
在这里插入图片描述

此外,作者提出了Task-decoupled feature distillation

即使用教师模型的pc矩阵和pr矩阵,以及学生模型的pc矩阵和pr矩阵,通过注意力机制学习得到混合的T0矩阵和T1矩阵作为教师模型的pc和pr矩阵特征蒸馏引导的权重矩阵。
在这里插入图片描述

3)Attention Guided

ICLR 2021:Improve Object Detection with Feature-based Knowledge Distillation: Towards Accurate and Efficient Detectors

在这里插入图片描述

Attention-based:

在这里插入图片描述

Relation-based:

在这里插入图片描述

TPAMI 2023: Structured Knowledge Distillation for Accurate and Efficient Object Detection

本论文是 ICLR 2021:Improve Object Detection with Feature-based Knowledge Distillation: Towards Accurate and Efficient Detectors的扩充版本

CVPR 2022:Focal and Global Knowledge Distillation for Detectors

在这里插入图片描述### Focal Distillation:包含基于注意力mask和前景mask和尺度mask的feature-level蒸馏,以及通道和空间注意力的蒸馏。

其中,基于feature-level的特征蒸馏是前景与背景分离的

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值