跟踪数据集
LaSOT(CVPR2019)
在论文中指出了现有数据集的几个问题:
- 规模小 Small-scale
- 缺乏高质量的密集注释 Lack of high-quality dense annotations
它可能会给一些需要从注释中学习时态模型的跟踪器带来问题,因为这些基准测试中的时态上下文可能会由于稀疏注释而丢失,或者由于可能不可靠的注释而不准确。 - 短程跟踪 Short-term tracking
可能无法演示跟踪器在长期场景中的性能。 - 类别不平衡 Category bias
鲁棒跟踪系统应表现出对目标所属类别不敏感的稳定性能,这意味着在训练和评估跟踪算法中都应抑制类别偏差(或类不平衡)。 见本节图片
采集方法:
- 70类物体(几乎为ImageNet1000类中存在的)
- 1400段视频进行裁剪(长度平均为2500 frames左右/84s)
注释方法:
- 右上贴合的矩形框人工标注(非最小包围)
- 提供完全遮挡和出画面的标注
- 会为了减少背景噪声调整标记策略(e.g., exclude the tails of mice when drawing their bounding boxes)
- 自然语言的标注:包含颜色、行为、目标周围的描述 color, behavior and surroundings of the target
- 构建高质量密集跟踪数据集的最大努力是手工标记、双重查询和错误纠正。
为了完成这项任务,我们组建了一个注释团队,其中包括几个从事相关领域工作的博士生和大约10名志愿者。为了保证高质量的注释,每个视频都由团队处理:标签团队和验证团队。标签团队由志愿者和专家(博士生)组成。