【论文阅读记录】Unsupervised Hard Example Mining from Videos for Improved Object Detection

该论文探讨了一种利用视频数据无监督地挖掘困难正负样本,以改进目标检测模型的方法。通过分析视频中目标的连贯性,作者提出了检测闪烁(detector flicker)的概念,并将其作为挖掘困难负样本的依据。实验表明,这种方法能有效提升基于Faster R-CNN的行人和人脸检测性能。然而,对于某些模型,如SDS-RCNN,加入困难负样本可能会降低性能。论文还提出了未来研究的方向,包括假正分布的熵、域转移的影响和其他类别扩展。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言:

{

    在https://github.com/amusi/awesome-object-detection里看到了论文《Unsupervised Hard Example Mining from Videos for Improved Object Detection》(https://arxiv.org/pdf/1808.04285.pdf)。论文主要是关于使用视频来提升目标检测的效果,也是我最近想了解的。

    这次添加了一个新分类,之后应该会持续更新这个分类。

}

正文:

{

    第一节讲述了本论文对于提升模型效果的主要方向—大量增加困难样本(hard example)(来自视频)。

    之前我也有想过通过视频来提升模型效果,不过这篇论文倒是给出了具体的方法。

    在介绍本论文的方法前,作者先介绍了3种目前的方法:active bias;on-line hard example mining(OHEM)和 focal loss。

    本论文的方法的基础在于:视频的图像具有连贯性,目标不太可能突然出现又突然消失(也不太可能突然消失又突然出现),见图1。

   

  &nbs

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值