
目标检测
文章平均质量分 55
rrr2
这个作者很懒,什么都没留下…
展开
-
【目标检测】|批大小如何影响模型学习
这篇论文的作者“关于深度学习的大批量训练:泛化差距和锐利最小值”,声称这是因为大批量方法往往会导致模型卡在局部最小值中。超参数定义了更新内部模型参数之前要处理的样本数,这是确保模型达到最佳性能的关键步骤之一。(3)Batch Normalization 使用同批次的统计平均和偏差对数据进行正规化,加速训练。学习率和批量大小密切相关——小批量在较小的学习率下表现最好,而大批量在较大的学习率下表现最好。(1)对一个批次的多个训练数据同时进行 f(x W +b) 操作,更容易GPU并行化处理。原创 2022-11-03 20:45:35 · 1122 阅读 · 0 评论 -
【目标检测】|yolov5候选框计算
计算所有真实框长宽与9组候选框长宽的比值(比值应小于1),在9组长宽比值中选择长宽中的最小值x(表示找到9个候选框长或宽哪一个与真实框最不贴合)。而后在9组最小值中选择最大值best(在9组不够贴合的候选框中选择最贴合的那个)。共得到真实框数量个最大值best。计算最优候选框best阈值大于25%所占比例作为bpr,计算9组候选框阈值大于25%所占比例作为aat。原创 2022-10-22 23:08:42 · 1212 阅读 · 0 评论 -
【目标检测】IOU loss CIOU
https://zhuanlan.zhihu.com/p/102956248https://zhuanlan.zhihu.com/p/110799558原创 2022-10-21 11:10:00 · 739 阅读 · 0 评论 -
【目标检测】感受野
如下图是一个全卷积网络,输入图像分辨率的改变会导致输出的分辨率有所改变,比如下图右边的部分最后的特征图出来是3×3的。结合之前的感受野的介绍和计算,来看下图中间的图示,最左边表示的是3×3的特征图上每个位置在原图的感受野中心,这里由红点表示。其实对于检测网络网络的训练可以视为一种高效的分类网络训练,因为一个检测的样本一次可以产生非常多分类的样本,每个分类样本就是感受野对应的图像区域,框的回归其实被当做一件附带的事情给干了,因为无论是one-stage还是two-stage的方法,框的预测都是和类别无关的!原创 2022-10-19 10:13:23 · 290 阅读 · 0 评论 -
【X3】|工具链使用
官方示例:Yolov5s部署。原创 2022-10-05 20:00:13 · 397 阅读 · 0 评论 -
RuntimeError: a view of a leaf Variable that requires grad is being used in an in-place operation
【代码】RuntimeError: a view of a leaf Variable that requires grad is being used in an in-place operation。原创 2022-10-05 18:46:25 · 867 阅读 · 0 评论 -
【目标检测】|yolox 训练自己的数据集
【代码】【目标检测】|yolox 训练自己的数据集。原创 2022-09-26 12:47:19 · 760 阅读 · 0 评论 -
YOLO格式转VOC格式 支持png jpeg等图片格式
【代码】YOLO格式转VOC格式 支持png jpeg等图片格式。原创 2022-09-25 21:23:54 · 972 阅读 · 1 评论 -
_pickle.UnpicklingError: STACK_GLOBAL requires str
将数据集中labels.cache文件去掉即可。原创 2022-09-25 09:48:08 · 393 阅读 · 0 评论 -
【目标检测】|APs APm APl AR1 AR10代码 计算
【代码】【目标检测】|APs APm APl AR1 AR10代码 计算。原创 2022-09-22 20:13:28 · 1692 阅读 · 1 评论 -
【目标检测】|yolov6 结构代码分析
yolov6s整体:在build_network中生成backbone,neck detect (其中,backbone为EfficientRep)EfficientRep位于yolov6/model/efficentrep.py。原创 2022-09-14 20:47:58 · 3476 阅读 · 0 评论 -
【目标检测】|YOLOV6 YOLOv6: A Single-Stage Object Detection Framework for Industrial Application
YOLOv6:一种用于工业应用的单级目标检测框架吸收了最近网络设计、训练策略、测试技术、量化和优化方法的思想。构建一套不同规模的可部署网络,以适应多样化的用例。我们的量化版本的YOLOv6-S甚至达到869fps时AP43.3%。(1)RepVGG[3]的重新参数化未能充分利用,小型网络,普通单路径架构是更好的选择,但对于大型模型,参数的指数增长和单路径架构的计算成本使其不可行。(2)基于再参数化的检测器的量化也需要细致的处理,否则,由于其在训练和推理期间的异构配置,很难处理性能退化。原创 2022-09-09 08:45:57 · 3034 阅读 · 0 评论 -
【目标检测】|yolov5 yaml文件
该anchor尺寸是为输入图像640×640分辨率预设的,实现了即可以在小特征图(feature map)上检测大目标,也可以在大特征图上检测小目标。三种尺寸的特征图,每个特征图上的格子有三个尺寸的anchor。yolov5-5yolov5-6from:输入来自那一层,-1代表上一层,1代表第1层,3代表第3层number:与depth_multiple结合确定网络的深度,而且number数量要大于1module:与width_multiple结合确定网络的宽度,主要是改变卷积核的数量。...原创 2022-09-01 11:22:36 · 3323 阅读 · 1 评论 -
【数据集】|标注的bbox影响 Can we trust bounding box annotations for object detection
目标检测绝大多数方法都需要大量带注释的数据集来进行训练和评估。最常用的表示是边界框(BBs),通常定义为包含整个对象区域的最小面积矩形。然而,注释过程具有一定的主观性(尤其是当存在遮挡时),当注释者感到疲倦时,其质量可能会下降。在本文中,我们提供的理论和实验结果表明,在用于对象检测的流行数据集中,即使存在很小的注释差异,IoU也会受到很大的影响。因此,通常用于评估对象检测器的平均精度(AP)值也会受到注释偏差或噪声的影响,尤其是对于小对象和更严格的IoU阈值 。一些论文评估了大型图像分类数据集中的偏差和注释原创 2022-06-28 08:50:12 · 309 阅读 · 0 评论 -
【目标检测】|指标 A probabilistic challenge for object detection
目标检测失败可以区分四种主要类型的对象检测失败:未能检测到对象;为检测到的对象分配错误的类别标签;错误地定位对象-例如,仅检测部分对象;以及错误地检测不存在的对象。为了在机器人或自治系统中安全可靠地运行,CNN必须表达有意义的不确定性信息。目标探测器必须量化报告标签和边界框的不确定性。然而,尽管最先进的物体检测器通过标签分布或标签得分报告至少一个未校准的标签不确定性指标,但它们目前不报告空间不确定性。评估标签质量或空间不确定性甚至不在典型的计算机视觉基准测量和竞赛的范围内 。提出一个评价标准和数据集。(P原创 2022-06-28 08:49:52 · 159 阅读 · 0 评论 -
【目标检测】|检测错误机制 Why Object Detectors Fail: Investigating the Influence of the Dataset
错检(没有检测到具有正确类别标签且IoU大于0.5的对象)对于某些任务(医学、自动驾驶、机器人、军事打击)更为重要怎么产生的假阴性(错检)?不同数据集是否有差别?影响因素是?通过分析不同数据集的影响目标检测中的假阴性描述了探测器未正确定位和分类的目标。前文(What’s in the Black Box?The False Negative Mechanisms Inside Object Detectors)介绍了五种“假阴性机制”,用于识别探测器体系结构中未能检测到对象的特定组件。利用这些机制,探索原创 2022-06-21 22:41:28 · 812 阅读 · 0 评论 -
【cnn】|指数滑动平均EMA
指数移动平均(Exponential Moving Average)也叫权重移动平均(Weighted Moving Average),是一种给予近期数据更高权重的平均方法。深度学习中的EMA在深度学习的优化过程中,theta_t是 t 时刻的模型权重weights,v_t是 t 时刻的影子权重(shadow weights)。在梯度下降的过程中,会一直维护着这个影子权重,但是这个影子权重并不会参与训练。基本的假设是,模型权重在最后的n步内,会在实际的最优点处抖动,所以我们取最后n步的平均,能使得模原创 2022-06-15 13:39:36 · 323 阅读 · 0 评论 -
【目标检测】|VFNet Varifocal Loss
论文地址:https://arxiv.org/pdf/2008.13367.pdfGithub地址:https://github.com/hyz-xmaster/VarifocalNetFCOS + ATSS为base自适应训练样本选择(ATSS)是一种根据对象的统计特征自动选择正样本和负样本的方法。 它弥合了基于锚的探测器和无锚的探测器之间的差距。作者还设计了一个更加不同的边界框,即一个更适合此IACS分数的星形框。这个星形盒子有9个固定的采样点[1],可以更准确地捕获上下文信息。该星形框还允许在原创 2022-06-15 11:41:51 · 1156 阅读 · 0 评论 -
【目标检测】|GFLV2 Localization Quality Estimation (LQE)定位质量估计
CVPR2021边界框的不确定性边界框分布被引入为“一般分布”,其中它学习每个预测边的离散概率分布(图1(a)),用于描述边界框回归的不确定性。有趣的是,我们观察到一般分布的统计数据与其实际定位质量有很强的相关性,(b) :基于GFLV1模型,在COCO【22】数据集的所有验证图像上计算预测框的一般分布的Top-1(四边平均值)值与其实际定位质量(预测与地面真实值之间的IoU)之间的关系散点图。整个散点图还是有一个明显地倾向于y=x的趋势的,也就是说,在统计意义上,我们此前观察得出的“分布的形状与真实原创 2022-06-15 09:05:33 · 811 阅读 · 0 评论 -
【目标检测】|NIPS2020 Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense
Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection这个工作核心是围绕“表示”的改进来的,也就是大家所熟知的“representation”这个词。这里的表示具体是指检测器最终的输出,也就是head末端的物理对象,目前比较强力的one-stage anchor-free的检测器(以FCOS,ATSS为代表)基本会包含3个表示:分类表示检测框表示检测框的质量估计原创 2022-06-14 20:27:12 · 546 阅读 · 0 评论 -
【目标检测】|Gaussian YOLOv3 An Accurate and Fast Object Detector Using Localization
ICCV2019虽然通过检测得到了目标的bbox坐标,但得到的这个bbox的不确定性是未知的(并不包含不确定性信息,并不清楚这个bbox是不是正确的)。因此,这些目标检测器并不能避免错误定位(FP).预测bbox的不确定性,以及将不确定性与objectness score和class score结合起来以降低FP,是非常重要的。为了解决以上问题,本文基于YOLOv3提出了一种新的目标检测方法,通过对YOLOv3的bbox坐标进行建模以提升检测精度,该方法仅输出确定值作为高斯参数(均值和方差),并重新设计bb原创 2022-06-14 17:01:55 · 313 阅读 · 0 评论 -
【目标检测】|Bounding Box Regression with Uncertainty for Accurate Object Detection
CVPR 2019 检测框不确定性github:https://github.com/yihui-he/KL-Loss论文原址:https://arxiv.org/pdf/1809.08545.pdfBounding Box Regression with Uncertainty for Accurate Object Detectionzhangxiangyu1.gt框本身有歧义,存在模糊性。作者列举了三种情况:比如边界标注不准确(a,c),遮挡(b),边界不清或无法给出确切边界(d)2.类别分数原创 2022-06-14 13:07:37 · 557 阅读 · 0 评论 -
【目标检测】|PPYOLOE
首先PP-YOLOE-l 在COCO数据集上达到了51.4mAP。相比较PP-YOLOv2提升1.9AP和13.35%的速度,相比较YOLOX提升1.3AP和24.96%的速度。而PP-YOLOE中主要的改进点是:anchor-free,powerful backbone and neck,TAL动态label assign,ET-head。PP-YOLOE避免使用变形卷积[3,34]和matrixNMS[28]等操作符,以在各种硬件上得到很好的支持。作者使用PP-YOLOv2(49.1%mAP)作为bas原创 2022-06-14 09:14:21 · 916 阅读 · 0 评论 -
【目标检测】|PPYOLOV2
尽管有大量方法声称可以独立提高目标检测器的精度,但在实践中,某些方法在结合使用时并不有效。因此,需要对这些技巧的组合进行实际测试。按照渐进的方式逐一评估其有效性。事实上,本文更像是一份技术报告,它告诉您如何逐步构建PP-YOLOv2。还涉及失效案例的理论证明。使用PAN代替FPN,多了一个自顶向下的信息汇集,之前多次提及,这里不再重复。Mish激活函数在YOLOv4、YOLOv5等多种实际的探测器中被证明是有效的。它们在骨干中采用mish激活功能。为了保持主干不变,我们将mish激活函数应用于检测颈部而不是原创 2022-06-13 18:01:30 · 2063 阅读 · 0 评论 -
【目标检测】|PPYOLO
PP-YOLO: An Effective and Effificient Implementation of Object DetectorPP-YOLO是PaddleDetection优化和改进的YOLOv3的模型,其精度(COCO数据集mAP)和推理速度均优于YOLOv4模型,PP-YOLO在COCO test-dev2017数据集上精度达到45.9%,在单卡V100上FP32推理速度为72.9 FPS, V100上开启TensorRT下FP16推理速度为155.6 FPS。没有探索不同的主干网络和原创 2022-06-13 13:23:27 · 2720 阅读 · 0 评论 -
【目标检测】|2020eccv TIDE:目标检测错误分析工具
论文地址: http://arxiv.org/pdf/2008.08115v2.pdf代码: https://dbolya.github.io/tide/来源: 佐治亚理工学院论文名称:TIDE: A General Toolbox for Identifying Object Detection Errors原文作者:Daniel Bolya在肿瘤检测任务中,正确的分类更重要,Bounding Box准确与否不是第一位的;在机器人抓取任务中,Bounding Box很重要,很微小的Bounding Bo原创 2022-06-13 11:17:42 · 1076 阅读 · 0 评论 -
【目标检测】|域迁移 eccv2020 Every Pixel Matters: Center-aware Feature Alignment for Domain Adaptive
https://github.com/chengchunhsu/EveryPixelMatters摘要域适配目标检测旨在将目标检测器适配到未知的域,新的域可能会遇到各种各样的外观变化,包括外观,视角或者背景。现存的大多数方法在图像级或者实例级上采用图像对齐的方法。然而,在全局特征上的图像对齐可能会混淆前景和背景像素。而使用建议的实例级对齐可能会受到背景噪声的影响。和现有的方法所不同的是,我们提出了一个域适配框架提前预测目标和中心度来对每个像素都负责,计了一个模块来估计整个图像的像素方向的目标度和中心度。原创 2022-06-13 10:56:48 · 598 阅读 · 1 评论 -
【目标检测】|ECCV2020 Side-Aware Boundary Localization for More Precise Object Detection
获取地址:https://arxiv.org/abs/1912.04260代码地址:https://github.com/open-mmlab/mmdetection提出Side-Aware Boundary Localization(SABL)以取代传统的bbox回归。提取关注于边界内容的边缘感知特征用来定位。提出使用该特征的轻量级two-step bucketing方法以精确定位目标。同时引入重打分(rescore)机制,利用bucket的置信度来保留高质量的bbox。在各种目标检测流程中,SABL均展原创 2022-06-13 10:20:43 · 296 阅读 · 0 评论 -
【目标检测】|ECCV2020 AABO: Adaptive Anchor Box Optimization 验证anchor的重要性
AABO: Adaptive Anchor Box Optimization for Object Detection via Bayesian Sub-sampling证明anchor box的数量,大小尺度,长宽比是一个合理的目标检测系统中重要的因素。现有系统预先定义anchor box的形状和大小,并使用特别的启发式(如手工制作或使用统计方法,如聚类)调整来定义anchor的配置。然而,当采用一个新的数据集或是新的模型的时候,当检测器扩展到一个新的特定问题时,锚定配置必须手动修改以适应这个新域的特性和原创 2022-06-13 08:48:59 · 330 阅读 · 0 评论 -
【目标检测】|ECCV2020-HCE-全局Roi Align目标检测网络 | Hierarchical Context Embedding for Region-based Object Detec
二阶目标检测器利用RoIPool或RoIAlign提取的区域特征作为ROI。尽管与proposals位置很好地相符,但区域范围内的特征仍可能缺少关键的上下文信息尤其对于滤除嘈杂的背景检测以及识别没有明显外观的目标是必不可少的。上下文信息是指任何辅助信息,可以帮助抑制噪声背景中的误报检测,或识别本身没有明显外观的对象。(虽然非常深的CNN中的每个RoI可能有一个非常大的理论感受野,通常覆盖整个输入图像[13]。然而,有效感受野[28]可能只占据整个理论感受野的一小部分,使得RoI特征不足以描述高度依赖上下文原创 2022-06-12 22:25:35 · 404 阅读 · 0 评论 -
【目标检测】|Dive Deeper Into Box for Object Detection 基于FCOS新训练方法
ECCV2020论文论文地址:https://arxiv.org/abs/2007.14350在目标检测领域,虽然无锚框的取得成功,但定位精度不足。1 中心关键点与目标的语义不一致。在当前的anchor-free方法中,中心关键点是十分重要的,但如图1所示,目标对应的中心关键点区域更多的是无关的背景,这会不可避免地将噪声像素作为正样本。如果使用这种简单的策略来定义正样本像素,必定会导致明显的语义不一致,造成回归准确率下降。2 局部特征的回归有局限性。由于卷积核的大小有限,每个中心关键点对应的有效感受域原创 2022-06-12 21:03:26 · 283 阅读 · 0 评论 -
权重初始化 BP反向传播
https://blog.youkuaiyun.com/xierhacker/article/details/53431207http://neuralnetworksanddeeplearning.com/chap2.html转载 2022-01-04 22:24:45 · 156 阅读 · 0 评论 -
CNN感受野
如何理解CNN中的感受野(receptive-field)? - DONT的回答 - 知乎https://www.zhihu.com/question/66954030/answer/1910838113codehttps://github.com/google-research/receptive_fieldhttps://distill.pub/2019/computing-receptive-fields/#mjx-eqn-eqrf_loc_recurrence_final_left_effe转载 2021-12-29 07:41:33 · 142 阅读 · 0 评论 -
目标检测正负样本区分策略和平衡策略
https://zhuanlan.zhihu.com/p/138824387转载 2021-12-06 21:07:28 · 235 阅读 · 0 评论 -
【样本不均衡】
类别的不同比例的影响论文1用浅层CNN在CIFAR-10数据集上通过设计类别的不同比例:作者发现,样本数量的差异会对模型的性能影响很大。比如Dist.5情况中,除airplane外其它类别几乎识别不到。类样本均衡解决还会面临难易样本不均衡造成易样本支配问题因为存在Hard example,有的类别样本比较困难,而且它的loss又淹没在大多数分类比较准确的类别的loss中,即easy example dominant问题。OHEM 思路将注意力转移到loss上,大概思路就是当分类器学习多个epo原创 2021-12-05 19:53:55 · 152 阅读 · 0 评论 -
CNN 模型计算力(flops)和参数(parameters)数量计算
对于一个卷积层,假设其大小为:h * w * c * n (其中c为:input channel, n为:output channel , h w为kernel的尺寸),输出的feature map尺寸为H * W;#paras = n * (h * w *c + 1) #FLOPs = H * W * n * (h * w * c +1)https://blog.youkuaiyun.com/xjcoolice/article/details/121197950https://www.转载 2021-11-30 19:38:42 · 401 阅读 · 0 评论 -
yolox
https://blog.youkuaiyun.com/qq_41035283/article/details/119150751原创 2021-09-01 20:47:48 · 397 阅读 · 0 评论 -
【目标检测】|数据增强 mix up mosiac
Yolov4的mosaic数据增强参考了CutMix数据增强方式,理论上具有一定的相似性。CutMix数据增强方式利用两张图片进行拼接,但是mosaic利用了四张图片,根据论文所说其拥有一个巨大的优点是丰富检测物体的背景,且在BN计算的时候一下子会计算四张图片的数据。1.每次读取四张图片2.分别对四张图片进行翻转、缩放、色域变化等,并且按照四个方向位置摆好。3.进行图片的组合和框的组合from PIL import Image, ImageDrawimport numpy as npfrom m原创 2021-08-31 21:40:42 · 413 阅读 · 0 评论 -
正负样本的分配atss
1.FCOS论文链接:https://arxiv.org/abs/1904.01355代码链接:https://github.com/tianzhi0549/FCOS/作为Anchor-free的方法,FOCS直接对feature map中每个位置对应原图的边框都进行回归,如果位置 (x,y) 落入任何真实边框,就认为它是一个正样本,它的类别标记为这个真实边框的类别。可以理解为他是基于物体的一个key point点进行回归的。在实际的anchor-free中也会遇到一些问题,为了解决这些问题,FCOS原创 2021-08-31 21:40:22 · 949 阅读 · 0 评论 -
目标检测常用位置损失函数
DIoU LossIoU loss和GIoU loss都只考虑了两个框的重叠程度,但在重叠程度相同的情况下,我们其实更希望两个框能挨得足够近,即框的中心要尽量靠近。因此,DIoU在IoU loss的基础上考虑了两个框的中心点距离,具体定义如下其中,ρ表示预测框和标注框中心端的距离,p和g是两个框的中心点。c表示两个框的最小包围矩形框的对角线长度。当两个框距离无限远时,中心点距离和外接矩形框对角线长度无限逼近,R→1CIOUdef box_ciou(b1, b2): b1_xy = b1原创 2021-08-31 09:44:43 · 513 阅读 · 0 评论