CVPR2019(FSAF)Feature Selective Anchor-Free Module实验设计

论文提出FeatureSelectiveAnchor-Free(FSAF)模块,改进单次目标检测,通过在线学习选择不同大小实例的最佳特征层,提升RetinaNet等模型在COCO数据集上的表现,尤其改善小、窄物体的检测效果。

论文《Feature Selective Anchor-Free Module for Single-Shot Object Detection》(CVPR2019)

论文的主要贡献在特征金字塔的基础上,提出Feature Selective Achor-Free Model ,通过学习的方式,对不同大小的实例,选择不同level的特征,来解决启发式特征选择的弊端。

本文主要记录论文的实验设计

1.数据集


论文的实验都是在coco数据集上进行的。

2.Ablation Studies(消融实验)


数据:training and test 图像都是 800pixels

1.评估Anchor-Free branches

整体思路是Anchor-based VS Anchor-free(又包括启发式特征选择vs在线特征选择)。最终比较结果是Mix好,也就是Anchor-based+Anchor-Free(在线特征选择)。

又通过图片结果,直观的展示了提出的FSAF比RetinaNet(Anchor-based)能更好的检测难检测的物体(如小,窄物体)。

2.评估在线特征选择

比较Anchor-Free的两种特征选择策略:启发式VS在线学习式,(Anchor-based+启发式)VS(Anchor-based+在线式)

结果是在线特征选择对于anchor-based+anchor-free有益

然后论文可视化地比较了Anchor-based提取的特征level和Anchor-Free提取的特征level

3.FSAF适用于现有的网络框架

在ResNet50,ResNet-101,ResNeXt-101上比较RetinaNet(Anchor-based)、FSAF、Anchor-based+FSAF

3.Comparison to State of the art(与现有方法比较)


比较工作分别在单尺度和多尺度两个方面进行。与现有的single-shot和multi-shot比较

 

 

可以看出,在同样以resNet-101为backbone network时,论文在多尺度上的结果已经超过了Multi-shot。

最后呢,在ResNeXt-101上也超过了目前最好的GHM800

 

### YOLOv6 无锚点目标检测方法及其实现 YOLOv6 是一种高效的实时目标检测框架,其核心改进之一在于采用了 **anchor-free** 方法。相比于传统的有锚点(anchor-based)模型,无锚点设计简化了训练过程并提高了推理速度。 #### 1. Anchor-Free 原理概述 在传统的目标检测算法中,如 Faster R-CNN 或早期版本的 YOLO (e.g., YOLOv3),通常会预先定义一组固定大小和比例的候选框(anchors)。这些 anchors 被用来匹配真实标签中的边界框,从而指导网络学习如何预测物体的位置和类别。然而,这种机制存在一些缺点,比如需要手动调整 anchor 参数以及可能引入额外计算开销。 相比之下,YOLOv6 使用了一种更简洁的方法——即完全抛弃预设的 anchors[^4]。具体来说: - 每个像素位置都被视为潜在的对象中心; - 对于给定图像上的某个特定区域,如果该区域内确实存在对象,则由最近邻的那个网格单元负责预测此对象的相关属性(包括分类得分、偏移量等信息);反之亦然。 这种方法不仅减少了超参数调优的工作量,还使得整个流程更加直观易懂。 #### 2. 关键技术细节 ##### (a)任务解耦化 为了进一步提升精度表现同时保持高效运行时间特性,YOLOv6 还实现了所谓的"task decoupling",即将原本紧密联系在一起的任务分开处理: - 分类分支(Classification Branch):专注于判断当前候选区属于哪一类别的可能性; - 定位回归分支(Regression Branch):专门用于估计实际边界的坐标值相对于默认设置之间的差异. 通过这种方式,可以分别优化不同方面的性能指标而不会相互干扰.[^5] ##### (b)空间变换采样(Spatial Transformation Sampling) 借鉴自其他研究工作成果[Yang et al., CVPR'17],提出了可微分的空间转换操作方案.The sampling methodology described in the spatial transformation gives a differentiable sampling mechanism allowing for loss gradients to flow back to the input feature map and the sampling grid coordinates.[^3]. 此外,在实践中发现利用双线性插值法能够有效改善最终效果质量。 ##### (c)损失函数设计(Loss Function Design) 针对上述提到的新架构特点重新定制适合它们使用的代价衡量标准非常重要。因此采用如下组合形式作为总成本组成部分: - Focal Loss:解决样本不平衡问题的有效手段之一. - GIoU Loss :相较于原始IOU度量更能反映两矩形间相对关系变化趋势的信息. ```python import torch.nn as nn class YOLOv6Loss(nn.Module): def __init__(self): super(YOLOv6Loss, self).__init__() self.focal_loss = ... # Define focal loss here self.giou_loss = ... # Define giou loss here def forward(self, pred_cls, pred_box, true_cls, true_box): cls_loss = self.focal_loss(pred_cls, true_cls) box_loss = self.giou_loss(pred_box, true_box) total_loss = cls_loss + box_loss return total_loss ``` #### 3. 实现注意事项 当尝试自己动手构建类似的系统时需要注意几个要点: - 数据增强策略的选择对于提高泛化能力至关重要 ; - 需要仔细调试各个子模块间的权重平衡系数以获得最佳整体效能 ; - 如果硬件资源允许的话 , 可考虑增加更深更大的骨干网结构来获取更高分辨率特征表示 .
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值