视频目标检测跟踪--Detect to Track and Track to Detect

本文介绍了一种用于视频目标检测的统一框架Detect&Track,该框架不仅能进行目标检测还能实现跟踪。通过引入RoITracking模块,实现了跨帧物体关联。此方案解决了视频数据中存在的运动模糊、遮挡等问题。
部署运行你感兴趣的模型镜像

Detect to Track and Track to Detect 
ICCV2017 
https://github.com/feichtenhofer/detect-track ​​​​

本文针对视频目标检测问题提出一个统一的框架同时完成检测和跟踪 
In this paper we propose a unified approach to tackle the problem of object detection in realistic video

ImageNet video object detection challenge (VID) 这个竞赛目前影响力是比较大

视频目标检测难度比较大,主要有以下几个原因: 
(i) size 视频的数据量比较大 VID has around 1.3M images, compared to around 400K in DET or 100K in COCO 
(ii)motion blur: 因为相机或物体运动导致的图像运动模糊 due to rapid camera or object motion 
(iii) quality 网络视频的质量是参差不齐的 
(iv) partial occlusion 有时遮挡是比较严重的 
(v) pose: unconventional object-to-camera poses are frequently seen in video 姿态的多样性

这里写图片描述

3 D&T Approach Detect and Track (D&T) 
3.1. D&T overview 
We aim at jointly detecting and tracking (D&T) objects in video 
我们是基于 R-FCN 检测框架,extend it for multi-frame detection and tracking

总体网络结构如下所示: 
这里写图片描述

最大的亮点是 提出了 一个 RoI Tracking,这个模块将两帧直接的物体关联起来,完成物体跟踪 
We compute correlation maps for all positions in a feature map and let RoI pooling operate on these feature maps for track regression 
这里写图片描述

这里写图片描述

Performance comparison on the ImageNet VID validation set 
这里写图片描述

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值