NoScope: Optimizing Neural Network Queries over Video at Scale
- 2017年3月
- 视频中的目标检测;名为NoScope的检索引擎
-
非常的快。
思想:由于视频目标是连续的,里面包含了大量时间局部性(temporal locality,即在不同的时间是相似的)和空间局部性(spatial locality,即同类目标在不同场景中看起来是相似的)。通过以下两点来进行优化:
1)Difference Detection:通过跳帧减少目标检测的实际执行开销,跳帧方法包括按照时间、按照相邻帧之间的相似性;
2)Model Specialization:针对不同场景(对应不同视角和特定目标),通过训练轻量级CNN来加速单帧检测开销。目的是判断图像中有没有目标”
Focal Loss for Dense Object Detection
- 2017年8月
- focal-loss
- FBAR
针对one-stage detector 的准确度落后于 two-stage detector,究其原因,最主要是极端 foreground-background 类别失衡。
提出通过改变标准交叉熵损失来解决这种类别失衡(class imbalance)问题,从而降低分配给分类清晰的样本的损失的权重。我们提出一种新的损失函数:Focal Loss,将训练集中在一组稀疏的困难样本(hard example),从而避免大量简单负样本在训练的过程中淹没检测器。为了评估该损失的有效性,我们设计并训练了一个简单的密集目标检测器 RetinaNet。
ICCV2017的最佳学生论文,针对单阶段目标检测(如SSD)中前景/背景不均衡问题,提出了focal-loss(焦点损失),函数形式上是交叉熵损失的基础上乘了了一个系数at(控制正负样本对总的loss的共享权重)和focusing参数(是一个指数,来控制容易分类和难分类样本的权重)。