
目标检测
文章平均质量分 82
不知道叫啥好一点
这个作者很懒,什么都没留下…
展开
-
DN-DETR: Accelerate DETR Training by Introducing Query DeNoising阅读笔记
DN-DETR阅读笔记原创 2022-04-15 10:54:58 · 1590 阅读 · 0 评论 -
Channel-wise Knowledge Distillation for Dense Prediction阅读笔记
Channel-wise KD阅读笔记(一) Title(二) Summary(三) Research Object(四) Problem Statement(五) Method5.1 spatial distillation5.2 Channel-wise Distillation(六) Experiments6.1 实验设置6.2 和最近knowledge Distillation方法相比6.3 消融实验6.4 目标检测任务(七) Conclusion(八) Notes8.1 Dense Predict原创 2021-12-28 17:16:03 · 3687 阅读 · 2 评论 -
Gaussian Bounding Boxes and Probabilistic Intersection-over-Union for Object Detection阅读笔记
ProbIoU论文阅读笔记原创 2021-12-21 15:57:53 · 1222 阅读 · 1 评论 -
Recurrence along Depth: Deep Convolutional Neural Networks with Recurrent Layer Aggregation阅读笔记
(一) Title论文地址:https://arxiv.org/abs/2110.11852(二) Summary研究背景本文内容本文进一步探讨了layer aggregation的问题,使得previous layer的信息能够更好地服务于current layer的特征提取。通过引入recurrent layer aggregation(RLA),充分利用CNNs layers的顺序结构,帮助学习图像中的structural information.(三) Research Obje原创 2021-11-12 22:27:57 · 3831 阅读 · 8 评论 -
Learning to Track with Object Permanence阅读笔记
Learning to Track with Object Permanence阅读笔记(一) Tilte(二) Summary(三) Research Object(四) Problem Statement(五) Method5.1 CenterTrack框架5.2 将pairs frame扩展到video-level model5.3 怎么在完全遮挡情况下进行跟踪呢?5.4 怎么处理真实数据和生成数据之间的gap(六) Experiments6.1 数据集+评价指标6.2 实验设置6.3 消融实验6.3原创 2021-10-26 21:37:49 · 2741 阅读 · 1 评论 -
Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box Estimation阅读笔记
(一)Title前言:提高tracker的性能,即插即用,无需训练,数据结果表现强劲,????啊。(二) Summary研究背景:目前trackers通过采用多阶段策略改善bounding box估计质量,不过目前方法存在的问题是:limited precisionthe coupling of different stages severely restricts the method‘s transferability本文提出方法提出Alpha-Refine模块,用于提升边界原创 2021-09-29 14:28:14 · 1107 阅读 · 0 评论 -
Towards Real-Time Multi-Object Tracking(JDE)论文阅读笔记
(一)Title前言:从之前的文献中,大致了解到这篇文献是在YOLOv3的基础上进行的跟踪任务,我们希望能够基于YOLOv3做一部分的跟踪工作,因此,打算对当前的论文记录一个阅读笔记。论文地址:https://arxiv.org/pdf/1909.12605v1.pdf代码地址:https://github.com/Zhongdao/Towards-Realtime-MOT数据集地址:https://github.com/Zhongdao/Towards-Realtime-MOT/blob/m原创 2021-02-02 17:36:21 · 1344 阅读 · 2 评论 -
YOLO格式标注数据转COCO标注数据
这里仅仅考虑person类别,如果考虑其他类别,则需要增加类别信息,稍作调整即可。import jsonimport osimport imagesizeimport copydef txt_to_json(img_dir,annotation_dir,json_path,img_format='.jpg',annotation_format='.txt'): # json 文件主要两项内容 json_dict = dict() annotations = list()原创 2021-01-29 11:31:23 · 739 阅读 · 1 评论 -
deformable conv相关知识整理
起因我们希望能够将深度学习模型移植到嵌入式平台上,但是目前存在的问题是:在我们将要移植的嵌入式平台上是不支持deformable conv的,因此,需要对deformable conv进行替换,然而,我对于这个deformable conv不了解,因此,打算整理下deformable conv的相关内容。deformable conv对应论文:Deformable Convolutional Networks看了两篇文章之后,大概了解了deformable conv DCN干了点啥:其原创 2021-01-27 20:28:22 · 513 阅读 · 0 评论 -
Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression阅读笔记
(一)Title前言:(二)Summary背景概述目标检测中的bounding box回归任务往往采取的方式借助损失去回归bounding boxes的参数(位置/长/宽),但是它并不适用于评估度量(Intersection over Union,IoU)。同时作者指出当前研究者提出的IoU度量(IoU Loss 以及 Generalized IoU Loss)上存在的一些问题:收敛慢slow convergence回归不准确,inaccurate regression主要内容作者在原创 2020-12-29 22:44:31 · 872 阅读 · 0 评论 -
Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression阅读笔记
(一)Title前言:杠杆(二)Summary(三)Research Object(四)Problem Statement(五)Method(六)Experiments(七)Conclusion(八)Notes原创 2020-12-29 11:37:31 · 423 阅读 · 0 评论 -
什么是GIoU Loss?
首先我们给出论文中关于GIoU的算法叙述计算GIoU的算法过程图示说明这里我们按照GIoU算法过程进行讲解:首先绿色框表示的BpB^pBp,黑色框表示的是BgB^gBg,首先计算IoU和我们熟知的方式相同:IoU=IUI o U=\frac{\mathcal{I}}{\mathcal{U}}IoU=UI其中III表示上图中的灰色阴影部分,UUU表示的是两个矩形面积之和Ap+AgA^p+A^gAp+Ag去掉两个矩形相交面积III,因此IoU的表示可以用下式:IoU=IU=IAp+Ag原创 2020-12-22 09:32:49 · 3034 阅读 · 0 评论 -
Generalized Focal Loss V2利用分布统计特征估计定位质量
(一)Title论文地址:https://arxiv.org/abs/2011.12885代码地址:https://github.com/implus/GFocalV2前言:GFLv1文章名:Generalized Focal Loss Learning Qualified and Distributed Bounding Boxes for Dense Object Detection。(二)Summary目前Localization Quality Estimation(LQE)在目标检测中原创 2020-12-16 09:56:13 · 1334 阅读 · 1 评论 -
PIoU Loss: Towards Accurate Oriented Object Detection in Complex Environments论文笔记
PIoU Loss论文阅读(一)Title(二)Summary(三)Research Object(四)Problem Statement(五)Method5.1 Pixels-IoU(PIoU) Loss(六)Experiment6.1 实验细节6.2 Ablation Study6.3 Benchmark(七)Conclusion(八)Notes8.1 现有的OBB角度回归做法以及我们的做法8.2 Retail50K 数据集介绍(一)Title前言:作者改变前人在进行OBB回归时,使用水平anch原创 2020-12-15 15:44:57 · 470 阅读 · 2 评论 -
IoU-aware single-stage object detector for accurate localization论文阅读笔记
(一)Title(二)Summary作者指出目前single-stage检测器存在的问题:classification score和localization accuracy之间的低相关性使得模型性能无法得到提升,为了解决这个问题,提出了IoU-aware single-stage object detector,核心做法是:对每一个预测的bounding box,同时预测一个IoU,然后用这个IoU乘上classification score作为最终的检测置信度,使用这个检测执行度来进行后续的原创 2020-12-14 16:28:18 · 835 阅读 · 2 评论 -
Generalized Focal Loss Learning Qualified and Distributed Bounding Boxes for Dense Object Detection
(一)Title(二)SummaryOne-stage检测器将目标检测形式化为dense classification和localization。分类通常通过Focal Loss进行优化,bounding box的定位通常利用狄拉克δ分布进行学习。One-stage检测器的最新趋势是引入an individual prediction branch(单独的预测分支)来帮助分类,从而提升检测性能。作者在实践过程中发现了两个问题:在训练和推断阶段,质量评估和分类使用的不一致(即,单独训练但在测试中复原创 2020-12-11 16:43:38 · 969 阅读 · 0 评论 -
论文中的AP指标
VOC 数据集评价指标是mAP = AP@0.5, 即 IOU=0.5 就算 True Positive;COCO数据集则会计算以下几个AP:AP(默认):IOU=0.5 到 IOU=0.95, 每隔0.05个IOU计算一次AP,然后求平均值AP (IOU=0.5), AP(IOU=0.75),两种典型IOU下的APAP(small),AP(medium),AP(large),即小中大三种不同尺度物体的AP值,其中small是指物体面积小于32 x 32, medium是指面积在32 x 32 -转载 2020-11-26 17:11:52 · 3856 阅读 · 0 评论 -
Focal Loss由来的通俗理解
前言Focal Loss前前后后看了好几遍了,总是会忘记,写下来时常看看吧!问题:为什么引入focal loss?focal loss的提出背景是two-stage阶段速度慢,准确率高,可是one-stage阶段速度高,准确率差,能不能想办法在保持one-stage速度高的前提下,提升其准确率呢?引入Focal Loss的思考过程:one-stage准确率为什么不如two-stage的呢?作者认为是类别不均衡造成的,不均衡的原因有两个:正负样本不均衡预测正确和预测错误的不均衡接下来就以完原创 2020-10-29 14:51:27 · 670 阅读 · 0 评论