
目标检测
文章平均质量分 77
Amusi(CVer)
欢迎关注微信公众号:CVer
展开
-
Pix2seq: A Language Modeling Framework for Object Detection
Pix2Seq:一个简单而通用的目标检测新框架, 其将目标检测转换为语言建模任务,大大简化了pipeline,性能可比肩Faster R-CNN和DETR!还可扩展到其他任务。注1:有点像去年看到DETR的感觉,都是没有对标sota,而是跟milestone比较。所以这一两年都要把CV看成NLP来搞么,或者说大统一注2:文末附【Transformer】和【目标检测】交流群Pix2seqPix2seq: A Language Modeling Framework for Object Detectio原创 2021-09-23 21:13:17 · 1312 阅读 · 0 评论 -
谷歌Hinton等提出Pix2seq:用于目标检测的语言建模框架
Pix2Seq:一个简单而通用的目标检测新框架, 其将目标检测转换为语言建模任务,大大简化了pipeline,性能可比肩Faster R-CNN和DETR!还可扩展到其他任务。注1:有点像去年看到DETR的感觉,都是没有对标sota,而是跟milestone比较。所以这一两年都要把CV看成NLP来搞么,或者说大统一注2:文末附【Transformer】和【目标检测】交流群Pix2seqPix2seq: A Language Modeling Framework for Object Detectio原创 2021-09-23 21:12:10 · 1409 阅读 · 1 评论 -
YOLOX: Exceeding YOLO Series in 2021
非常期待YOLOv6(YOLOv4/v5已发布一年了),白嫖真香!其中YOLOX-L版本以 68.9 FPS 的速度在 COCO 上实现了 50.0% AP,比 YOLOv5-L 高出 1.8% AP!还提供了支持 ONNX、TensorRT、NCNN 和 Openvino 的部署版本。代码刚刚开源!YOLOXYOLOX: Exceeding YOLO Series in 2021作者单位:旷视科技代码:https://github.com/Megvii-BaseDetection/YOLO原创 2021-07-20 13:26:07 · 1396 阅读 · 0 评论 -
超越一切YOLO!旷视提出YOLOX:新一代实时目标检测网络
非常期待YOLOv6(YOLOv4/v5已发布一年了),白嫖真香!其中YOLOX-L版本以 68.9 FPS 的速度在 COCO 上实现了 50.0% AP,比 YOLOv5-L 高出 1.8% AP!还提供了支持 ONNX、TensorRT、NCNN 和 Openvino 的部署版本。代码刚刚开源!YOLOXYOLOX: Exceeding YOLO Series in 2021作者单位:旷视科技代码:https://github.com/Megvii-BaseDetection/YOLO原创 2021-07-20 13:24:28 · 42499 阅读 · 13 评论 -
CVPR 2021 目标检测论文大盘点(65篇论文)
前言一共搜集了65篇2D目标检测论文,涉及:通用目标检测、旋转目标检测、Few-shot/自监督/半监督/无监督目标检测等方向。作者:Amusi | 来源:CVerCVer 正式盘点CVPR 2021上各个方向的工作,本篇是热度依然很高的2D目标检测论文大盘点,之前已分享:最新!CVPR 2021 视觉Transformer论文大盘点(43篇)最新!CVPR 2021 OCR领域论文大盘点(22篇)关于更多CVPR 2021的论文和开源代码,可见下面链接:CVPR2021 Papers wit原创 2021-07-01 15:24:34 · 22684 阅读 · 1 评论 -
YOLOF: You Only Look One-level Feature
没有FPN!更快更强,性能优于YOLOv4、DETR等网络,其中一版本性能44.3 mAP / 60 FPS,代码于12个小时前刚刚开源!注:文末附【目标检测】交流群想看更多CVPR 2021论文和开源项目可以点击:CVPR2021-Papers-with-CodeYou Only Look One-level Feature作者单位:中科院, 国科大, 旷视科技代码:https://github.com/megvii-model/YOLOF论文下载链接:https://arxiv.org原创 2021-03-18 21:28:48 · 3627 阅读 · 2 评论 -
CVPR 2021 | 没有FPN!中科院&旷视提出YOLOF:你只需看一层特征
没有FPN!更快更强,性能优于YOLOv4、DETR等网络,其中一版本性能44.3 mAP / 60 FPS,代码于12个小时前刚刚开源!注:文末附【目标检测】交流群想看更多CVPR 2021论文和开源项目可以点击:CVPR2021-Papers-with-CodeYou Only Look One-level Feature作者单位:中科院, 国科大, 旷视科技代码:https://github.com/megvii-model/YOLOF论文下载链接:https://arxiv.org原创 2021-03-18 21:27:49 · 1352 阅读 · 1 评论 -
AAAI 2021 目标检测论文大盘点(YOLObile/R3Det/StarNet等)
点击上方“CVer”,选择加"星标"置顶重磅干货,第一时间送达前言距离AAAI 2021 开奖放榜结束有段时间了(近期将开始线上会议),其中的论文大多是目前的SOTA,所...原创 2021-01-16 23:59:00 · 5086 阅读 · 0 评论 -
Focal and Efficient IOU Loss for Accurate Bounding Box Regression
性能优于EIOU、Focal Loss、CIOU等,直接替换大多数检测网络中的原损失函数,均涨点明显!如PAA、ATSS和RetinaNet等。注:文末附【目标检测】交流群Focal and Efficient IOU Loss for Accurate Bounding Box Regression作者单位:华南理工大学, 地平线, 中科院(谭铁牛等)论文:https://arxiv.org/abs/2101.08158在目标检测中,边界框回归(BBR)是确定对象定位性能的关键步骤。但原创 2021-01-21 17:10:05 · 1964 阅读 · 0 评论 -
Focal-EIOU Loss:用于精确边界框回归的高效IOU损失
性能优于EIOU、Focal Loss、CIOU等,直接替换大多数检测网络中的原损失函数,均涨点明显!如PAA、ATSS和RetinaNet等。注:文末附【目标检测】交流群Focal and Efficient IOU Loss for Accurate Bounding Box Regression作者单位:华南理工大学, 地平线, 中科院(谭铁牛等)论文:https://arxiv.org/abs/2101.08158在目标检测中,边界框回归(BBR)是确定对象定位性能的关键步骤。但原创 2021-01-21 17:08:59 · 9801 阅读 · 16 评论 -
Fast Convergence of DETR with Spatially Modulated Co-Attention
为了加速DETR收敛,本文提出了一种简单而有效的方案来改进DETR框架,即空间调制协同注意(SMCA)机制。即插即用,让DETR涨点明显。性能优于可变形DETR、DETR等网络。注1:文末附【Transformer】和【目标检测】交流群注2:整理不易,点赞的人暴富,论文多多!SMCAFast Convergence of DETR with Spatially Modulated Co-Attention作者单位:港中文(李鸿升团队), 商汤(代季峰), 北大论文:https://arxiv原创 2021-01-20 23:52:16 · 924 阅读 · 0 评论 -
港中文&商汤提出SMCA:用于DETR快速收敛的空间调制协同注意力
为了加速DETR收敛,本文提出了一种简单而有效的方案来改进DETR框架,即空间调制协同注意(SMCA)机制。即插即用,让DETR涨点明显。性能优于可变形DETR、DETR等网络。注1:文末附【Transformer】和【目标检测】交流群注2:整理不易,点赞的人暴富,论文多多!SMCAFast Convergence of DETR with Spatially Modulated Co-Attention作者单位:港中文(李鸿升团队), 商汤(代季峰), 北大论文:https://arxiv原创 2021-01-20 23:51:33 · 1636 阅读 · 0 评论 -
Toward Transformer-Based Object Detection
与DETR和可变形DETR范式不同,本文将ViT与RPN进行结合,即将CNN主干替换为transformer,组成为:ViT-FRCNN,作者称这可视为迈向复杂视觉任务(例如目标检测)纯transformer解决方案的重要基石。注:文末附【Transformer】和【目标检测】学习交流群Toward Transformer-Based Object Detection作者单位:Pinterest论文:Toward Transformer-Based Object Detection背景Tr原创 2020-12-21 15:33:25 · 1470 阅读 · 0 评论 -
ViT-FRCNN:面向基于Transformer的目标检测
与DETR和可变形DETR范式不同,本文将ViT与RPN进行结合,即将CNN主干替换为transformer,组成为:ViT-FRCNN,作者称这可视为迈向复杂视觉任务(例如目标检测)纯transformer解决方案的重要基石。注:文末附【Transformer】和【目标检测】学习交流群Toward Transformer-Based Object Detection作者单位:Pinterest论文:Toward Transformer-Based Object Detection背景Tr原创 2020-12-21 15:32:49 · 6234 阅读 · 4 评论 -
Equalization Loss v2 长尾目标检测新网络
本文揭示了长尾目标检测中的主要问题是正负之间的梯度不平衡,并提出均衡损失(equalization loss)v2 表现SOTA!性能优于BAGS、Forest R-CNN等网络,代码即将开源!注:文末附【目标检测】学习交流群Equalization Loss v2: A New Gradient Balance Approach for Long-tailed Object Detection作者单位:同济大学, 商汤科技, 清华大学论文:https://arxiv.org/abs/2012.0原创 2020-12-20 18:52:38 · 1213 阅读 · 0 评论 -
Equalization Loss v2: A New Gradient Balance Approach for Long-tailed Object Detection
本文揭示了长尾目标检测中的主要问题是正负之间的梯度不平衡,并提出均衡损失(equalization loss)v2 表现SOTA!性能优于BAGS、Forest R-CNN等网络,代码即将开源!注:文末附【目标检测】学习交流群Equalization Loss v2: A New Gradient Balance Approach for Long-tailed Object Detection作者单位:同济大学, 商汤科技, 清华大学论文:https://arxiv.org/abs/2012.0原创 2020-12-20 18:51:48 · 972 阅读 · 0 评论 -
57.3 AP!刷新COCO目标检测和实例分割新记录!谷歌提出:复制-粘贴是用于实例分割的强大数据增广方法
拿下COCO目标检测和实例分割双料第一名!目标检测数据刷到57.3 AP;实例分割刷到49.1 AP!Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation作者单位:谷歌大脑(Quoc V. Le等人), 加州大学伯克利分校, 康奈尔大学论文下载链接:https://arxiv.org/abs/2012.07177注:文末附目标检测交流群建立数据高效且可以处理稀有对象类别的实原创 2020-12-15 20:57:37 · 576 阅读 · 0 评论 -
Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation
57.3 AP!刷新COCO目标检测和实例分割新记录!复制-粘贴是用于实例分割的强大数据增广方法拿下COCO目标检测和实例分割双料第一名!目标检测数据刷到57.3 AP;实例分割刷到49.1 AP!Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation作者单位:谷歌大脑(Quoc V. Le等人), 加州大学伯克利分校, 康奈尔大学论文下载链接:https://arxiv.org/原创 2020-12-15 20:55:51 · 4097 阅读 · 3 评论 -
TinaFace人脸检测新网络!刷新WIDER FACE纪录
作者:mileistone- 来自:媒智科技https://zhuanlan.zhihu.com/p/315511581这几年人脸检测的benchmark越刷越高,方法也越来越复杂,提出的模块或者方法大都专门为人脸检测设计,不易复现和使用,比如DSFD里的FEM、PAL、IAM,ASFD里的AutoFEM、PAL、IAM、DRMC loss,HAMBox里的PA、OAM、RAL等等。WIDER FACE验证集hard结果WIDER FACE测试集hard结果鉴于此,我们设计了一个简单而.转载 2020-11-28 00:01:20 · 1450 阅读 · 0 评论 -
Sparse R-CNN: End-to-End Object Detection with Learnable Proposals
Sparse R-CNN: End-to-End Object Detection with Learnable Proposals作者单位:港大, 同济大学, 字节AI Lab, UC伯克利沿着目标检测领域中Dense和Dense-to-Sparse的框架,Sparse R-CNN建立了一种彻底的Sparse框架, 脱离anchor box,reference point,Region Proposal Network(RPN)等概念,无需Non-Maximum Suppression(NMS)后处原创 2020-11-25 11:40:15 · 1645 阅读 · 2 评论 -
目标检测新范式!港大同济伯克利提出Sparse R-CNN
Sparse R-CNN: End-to-End Object Detection with Learnable Proposals作者单位:港大, 同济大学, 字节AI Lab, UC伯克利沿着目标检测领域中Dense和Dense-to-Sparse的框架,Sparse R-CNN建立了一种彻底的Sparse框架, 脱离anchor box,reference point,Region Proposal Network(RPN)等概念,无需Non-Maximum Suppression(NMS)后处转载 2020-11-25 11:36:22 · 1656 阅读 · 2 评论 -
NanoDet目标检测新网络!比YOLO跑的还快
项目链接:https://github.com/RangiLyu/nanodet作者:RangiLyuNanoDetSuper fast and lightweight anchor-free object detection model. Real-time on mobile devices.⚡Super lightweight: Model file is only 1.8 mb.⚡Super fast: 97fps(10.23ms) on mobile ARM CPU.????Tra转载 2020-11-24 14:24:30 · 6880 阅读 · 0 评论 -
Scaled-YOLOv4: Scaling Cross Stage Partial Network
YOLOv4 官方改进版来了!55.8% AP!Scaled-YOLOv4:扩展跨阶段局部网络注:文末附目标检测微信交流群Scaled-YOLOv4: Scaling Cross Stage Partial Network作者单位:YOLOv4原班人马(Chien-Yao Wang、AlexeyAB等人)PyTorch代码:https://github.com/WongKinYiu/ScaledYOLOv4darknet代码:https://github.com/AlexeyAB/darkne原创 2020-11-19 00:34:37 · 1388 阅读 · 1 评论 -
Scaled-YOLOv4来了!55.8% AP!速度高达1774 FPS!Scaled-YOLOv4: Scaling Cross Stage Partial Network
YOLOv4 官方改进版来了!55.8% AP!Scaled-YOLOv4:扩展跨阶段局部网络注:文末附目标检测微信交流群Scaled-YOLOv4: Scaling Cross Stage Partial Network作者单位:YOLOv4原班人马(Chien-Yao Wang、AlexeyAB等人)PyTorch代码:https://github.com/WongKinYiu/ScaledYOLOv4darknet代码:https://github.com/AlexeyAB/darkne原创 2020-11-17 23:39:15 · 1570 阅读 · 2 评论 -
谷歌刚刚发布Objectron新数据集,可完美检测3D目标,超过4百万幅图像和15K视频剪辑!
本文转载自:新智元 | 编辑:QJP【导读】谷歌人工智能实验室近日发布 Objectron 数据集,这是一个以3D目标为中心的视频剪辑的集合,这些视频剪辑从不同角度捕获了较大的一组公共对象。数据集包括 15K 带注释的视频剪辑,并补充了从地理多样的样本中收集的超过 4M 带注释的图像(覆盖五大洲的 10 个国家)。ObjectronObjectron 数据集链接(文末附下载):https://github.com/google-research-datasets/Objectron/机器学习.转载 2020-11-12 09:29:44 · 967 阅读 · 0 评论 -
YOLOv5在建筑工地中安全帽佩戴检测的应用(已开源+数据集)
前言Amusi 发现一个很棒的开源项目,利用YOLOv5进行目标检测的"落地化"应用:安全帽佩戴检测。该项目使用了YOLOv5s、YOLOv5m、YOLOv5l来训练安全帽佩戴检测数据集,代码和权重均已开源!安全帽佩戴检测数据集也是开源的(共含7581 张图像)!项目教程也相当详细,推荐入门练手学习!而且有意思的是,该项目和数据集的两位作者均是中国人,点赞!项目链接(文末附下载):https://github.com/PeterH0323/Smart_Construction数据集链接(文末附下原创 2020-11-12 09:24:25 · 9050 阅读 · 5 评论 -
ECCV 2020 目标检测论文大盘点(49篇论文)
作者:CV Daily | 编辑:AmusiDate:2020-09-24来源:计算机视觉Daily 微信公众号(系投稿)原文:ECCV 2020 目标检测论文大盘点(49篇论文)前言距离ECCV 2020 会议结束有段时间了,但其中的论文大多是目前的SOTA,所以非常值得大家花时间阅读学习!ECCV 2020 有效投稿数为5025,最终收录1361篇论文,录取率是27%。其中104篇 Oral、161篇 Spotlights,剩下皆为Poster。计算机视觉Daily 将正式系列整理 E.原创 2020-09-24 11:08:34 · 2099 阅读 · 0 评论 -
GitHub:Anchor-free目标检测最全资料集锦
作者:AmusiDate:2020-09-05来源:CVer微信公众号原文:GitHub:Anchor-free目标检测最全资料集锦前言Anchor-free 目标检测 无疑是近一两年内目标检测非常重要的研究方向之一,Amusi 觉得特别是得益于DenseBox、CornerNet、FCOS和CenterNet等网络的创新性提出。近两年里,CVPR 2019、ICCV 2019、CVPR 2020和ECCV 2020上出现了不少anchor-free目标检测的优质工作。“先富带后富”,近来也.原创 2020-09-05 11:43:16 · 733 阅读 · 0 评论 -
YOLOv5被禁用!Kaggle全球小麦检测竞赛结果惹争议
作者:AmusiDate:2020-08-06来源:CVer微信公众号链接:YOLOv5被禁用!Kaggle全球小麦检测竞赛结果惹争议前言昨天(2020.08.05) Kaggle 全球小麦检测(Global Wheat Detection)比赛落下帷幕,共计2,270 支队伍参赛。比赛结束后,讨论区本该是晒成绩或者解决方案的,但却出现了大量关于"YOLOv5"的讨论。Amusi 先总结一下出现这类讨论的核心原因:YOLOv5被Kaggle禁止在这场比赛中使用!为什么YOLOv5 .原创 2020-08-07 15:26:45 · 6202 阅读 · 0 评论 -
YOLOv4 PyTorch最强复现来了!
作者:Amusi原文链接:YOLOv4最强PyTorch复现来了!前言从今年4月 YOLOv4正式发布后,很多同学经常在CVer 目标检测交流群中问:“有没有同学复现YOLOv4的, 可以交流一下么”“现在有没有很好复现YOLOv4的开源项目,可以分享一下么?”…因为原版YOLO是基于C语言所写,光凭这一点就让不少同学望而却步。于是Amusi 上个月整理了:YOLOv4最全复现代码合集(含PyTorch/TF/Keras和Caffe等)上述整理的项目虽然更新频率较高,复现相对较全,但还.原创 2020-07-29 17:40:13 · 4991 阅读 · 2 评论 -
YOLOv4-Tiny来了!371 FPS!
编辑:AmusiDate:2020-06-28来源:CVer微信公众号链接:YOLOv4-Tiny来了!371 FPS!前言今天刷屏的动态一定是 YOLOv4-Tiny!实际上,YOLOv4-Tiny 在大前天(2020.06.25)的晚上就正式发布了,但鉴于当时处于端午假期,Amusi 特意没有更新,希望各位CVers过个好节,科研缓一缓,哈哈。YOLOv4 重要时间节点2020.04:YOLOv4 正式发布2020.06:YOLOv4-Tiny 正式发布YOLOv4-Tiny来了!原创 2020-06-28 18:58:29 · 15621 阅读 · 2 评论 -
Windows下 YOLOv3配置教程
Summary: YOLOv3—Windows配置Author: AmusiDate: 2018-04-05YOLOv3翻译:https://blog.youkuaiyun.com/amusi1994/article/details/79698890yolo官网:https://pjreddie.com/darknet/yolo/目录硬件环境安装教程下载darknet修改darkne...原创 2018-05-10 00:32:13 · 39284 阅读 · 28 评论 -
R-CNN论文笔记
R-CNN《Rich feature hierarchies for accurate object detection and semantic segmentation》 CVPR 2014arxiv: http://arxiv.org/abs/1311.2524supp: http://people.eecs.berkeley.edu/~rbg/papers/r-cnn-cv...原创 2018-07-17 14:44:09 · 1441 阅读 · 0 评论 -
目标检测(Object Detection)算法合集(持续更新ing)
object-detectionThis is a list of awesome articles about object detection.R-CNNFast R-CNNFaster R-CNNLight-Head R-CNNCascade R-CNNSPP-NetYOLOYOLOv2YOLOv3YOLTSSDDSSDFSSDESSDMDSSDPel...原创 2018-07-14 13:38:47 · 7474 阅读 · 1 评论 -
CVPR 2018 目标检测(Object Detection)总览
http://www.tongtianta.site/group?group_id=1 https://blog.youkuaiyun.com/u014380165/article/details/80784147《An Analysis of Scale Invariance in Object Detection - SNIP》arXiv:https://arxiv.org/abs/1711.0...原创 2018-07-21 14:41:46 · 3539 阅读 · 0 评论 -
YOLOv3 mAP计算教程
前言本文只介绍如何利用YOLOv3训练好的model来计算VOC数据集的mAP。举一反三,很容易理解如何利用自己训练的model来计算自己的数据集的mAP。1 运行detector valid命令,进行测试./darknet detector valid cfg/voc.data cfg/yolov3-voc.cfg backup/VOC/yolov3-voc_final.we...原创 2018-08-10 15:40:56 · 38487 阅读 · 58 评论 -
Softer-NMS 论文笔记
文章目录背景创新点Bounding Box Regression with KL LossSofter-NMS实验结果参考《Softer-NMS: Rethinking Bounding Box Regression for Accurate Object Detection》intro:CMU & Face++arXiv:https://arxiv.org/abs/1809.08...原创 2018-09-25 14:27:36 · 10888 阅读 · 4 评论 -
Faster RER-CNN 论文笔记
《Faster RER-CNN: application to the detection of vehicles in aerial images》arXiv:https://arxiv.org/abs/1809.07628解决什么问题目标检测(Object Detection)是一个宽泛、通用的任务,旨在检测"万物"。但实际应用上,我们只需要检测部分物体即可。如常见的车牌检测、人脸检...原创 2018-09-23 00:48:00 · 884 阅读 · 1 评论 -
Fast and accurate object detection in high resolution 4K and 8K video using GPUs 论文笔记
文章目录一、基本信息二、研究背景三、创新点3.1 概述3.2 详解3.2.1 问题分析3.2.2 Attention pipeline3.2.3 Implementation of the client-server version四、实验结果五、结论与思考5.1 作者结论5.2 记录该工作的亮点,以及可以改进的地方参考一、基本信息标题:《Fast and accurate object de...原创 2018-10-26 17:18:34 · 1071 阅读 · 0 评论 -
腾讯优图:开源 YOLO 系列代码(含 YOLOv3 以及各种 Backbone)
Summary:腾讯优图:开源YOLO系列代码(含YOLOv3以及各种backbone)Author:AmusiDate:2019-01-017微信公众号:CVerhttps://github.com/cbsudux/awesome-human-pose-estimation原文链接:腾讯优图:开源YOLO系列代码(含YOLOv3以及各种backbone)知乎:https://zhu...原创 2019-02-16 17:47:18 · 6186 阅读 · 1 评论