自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 YOLOv3全面剖析:从多尺度预测到骨干网络的设计哲学

通过上采样(Upsampling)和拼接(Concatenation)融合深层语义与浅层细节。:成为工业界最广泛应用的版本(衍生出YOLOv3-spp、YOLOv3-tiny等变体):在3个不同尺度的特征图上进行预测(13×13, 26×26, 52×52):根据特征图尺度分配不同大小的锚框(大尺度特征图检测小物体):自动标注用户上传图片中的多类别物体(如“人+狗+滑板”):从YOLOv2的5组锚框扩展至9组(每个尺度分配3组):支持多标签分类(如同时标注“人”和“骑自行车的人”)

2025-04-07 09:58:13 784

原创 YOLOv2全面解读:从锚框到多尺度训练的进化之路

YOLOv2通过锚框、多尺度训练等创新设计,实现了速度与精度的双重突破。其核心思想——

2025-04-07 09:49:27 618

原创 【目标检测基础】YOLOv1算法详解:从“一次看全”到实时检测的革命性突破

2016年,Joseph Redmon等人提出YOLO(You Only Look Once)算法,开启了单阶段目标检测的新时代。:在GPU上达到45 FPS(Faster R-CNN仅为7 FPS),首次让实时视频分析成为可能。:为Anchor-Free(无锚框)方法奠定基础,如CenterNet、DETR等。:直接输入图像输出检测结果,避免复杂的人工设计模块(如锚框、区域提议)。:直接催生YOLO系列(v2-v10),持续领跑实时检测领域。:推动智能终端(如手机、机器人)的实时检测落地。

2025-04-06 20:37:58 470

原创 【目标检测进阶】Anchor-Based vs Anchor-Free:核心原理、优劣对比与实战选择指南

Anchor-Based与Anchor-Free的竞争推动着目标检测技术的发展。:通过预定义锚框(Anchor Box)预测物体位置(如Faster R-CNN、SSD)追求精度:选Anchor-Based(如Faster R-CNN)平衡需求:现代算法趋向融合两者优势(如YOLOv5的灵活锚框设置):预测物体边界角点(如CornerNet检测左上/右下角点)追求速度:选Anchor-Free(如YOLOv1变体):将物体视为点(如CenterNet预测中心点+宽高):探索Anchor-Free的潜力。

2025-03-21 09:10:57 590

原创 【目标检测基础】TP/FP/TN/FN与目标检测的关系

在目标检测任务中,模型性能的评估直接影响算法优化方向。了解TP/FP/TN/FN四大基础指标,是掌握。、mAP(平均精度均值)等高级指标的前提。:使用更高分辨率的特征图(如YOLOv3的3尺度检测):使用多尺度特征融合网络(如FPN)增强小目标检测。:IoU=0.5(PASCAL VOC标准):IoU=0.75(COCO数据集部分任务):通过NMS(非极大值抑制)减少重复检测。🔍 诊断模型问题(如过拟合、欠拟合):通常忽略(因背景区域无限多):降低分类阈值,增加候选框数量。:小目标检测中FN过高。

2025-03-19 15:56:58 410

原创 YOLO算法 | 速度与精度的博弈(深度学习目标检测系列)

YOLO(You Only Look Once)自2016年诞生以来,便以迅雷不及掩耳之势席卷目标检测领域。Joseph Redmon在论文中喊出那句经典口号:“You Only Look Once”,直接道明了YOLO的速度哲学。YOLO跳出“检测=定位+分类”的传统框架,直接将目标检测视为一个,在单个神经网络的“端到端”推理中,完成所有检测任务,真正做到了「一图一测」。

2025-03-18 11:36:46 278

原创 SSD算法 | 单阶段检测器的速度革命(深度学习目标检测系列)

相比于R-CNN系列繁琐的“提议+分类”的两阶段策略,SSD一举打破常规,提出「端到端」的检测流程——不再依赖外部区域提议,而是直接在图像中“划分”检测框,真正实现了检测任务的实时性。SSD凭借“快”与“准”的平衡,迅速成为工业界、移动端检测任务的热门选择,并启发了诸如YOLOv2、RetinaNet等后续算法的设计。如果R-CNN是“以精度取胜”的深思熟虑者,SSD便是“以速度制敌”的敏捷行者。两种理念,正是目标检测世界中,速度与精度永恒的博弈。

2025-03-18 11:21:19 422

原创 从R-CNN到Mask R-CNN,目标检测的演进之路(深度学习目标检测系列)

从“图像 → 候选框 → 特征 → 分类”,到今天“一张图,端到端即可搞定”,它深刻影响了计算机视觉的工程实践与算法研究。2014年,R-CNN(Region-based Convolutional Neural Networks)正式提出,标志着目标检测领域从传统方法(如HOG、DPM)跨入深度学习新时代。未来,单阶段与两阶段检测器的边界正在被打破,基于Transformer的DETR等新技术不断涌现,但R-CNN家族的思想,依然活跃在现代CV的每一处角落。(图示建议:插入R-CNN流程图)

2025-03-18 10:12:24 824

原创 揭秘目标检测中的锚框(Anchor Boxes)

在目标检测中,模型会对同一物体生成多个重叠的预测框(如不同锚框的预测结果)。NMS 的目的是 保留最准确的预测框,剔除冗余框,确保每个物体仅被检测一次。:作为预测物体位置的基准框,模型只需预测锚框与真实框的偏移量,简化学习难度。:通过不同尺寸的锚框,同时检测大物体(如汽车)和小物体(如行人)。:若其他框与基准框的重叠度(IoU)超过阈值,则视为冗余框并剔除。:锚框是预先定义在图像网格上的不同形状(宽高比)和尺寸的参考框。:匹配不同形状的物体(如横向的船 vs 竖直的人)。:选择分类置信度最高的框作为基准。

2025-03-18 09:00:19 362 1

原创 图像处理技巧:理解与应用显示尺寸、像素分辨率及图像重采样方法

图像在屏幕上占据更大区域,但可能因像素拉伸而模糊。,放大后可能导致显示模糊(像素被拉伸)。:每个子图的显示区域是默认尺寸的2倍。图像在图表中的显示区域会放大到。,而非调整图像本身的像素数量。:控制图像在图表中的。图像的实际像素数仍为。

2025-03-17 19:17:23 452

原创 什么是目标检测?

目标检测(Object Detection)是计算机视觉领域的核心技术,其核心任务是让计算机在图像中同时完成物体的定位(Localization)与分类(Classification)。具体来说,它需要实现两个关键输出:1位置感知:用边界框(Bounding Box)精确标记物体位置,通常用坐标表示如。

2025-03-17 09:58:00 501

原创 PyTorch迁移学习实战:基于ResNet的CIFAR-10图像分类

定义损失函数:交叉熵损失(CrossEntropyLoss)# 适用于多分类任务,内部自动结合Softmax和负对数似然损失# 输入:模型输出(未经过Softmax的logits),目标标签# 输出:标量损失值# 定义优化器:随机梯度下降(SGD)# 使用SGD优化算法更新模型参数model.parameters(), # 需要优化的模型参数(通过model.parameters()获取)lr=learning_rate, # 学习率(控制参数更新步长)

2025-03-17 08:59:10 777

原创 “PyTorch入门必备:手把手教你搭建卷积神经网络实现MNIST分类“

"""卷积神经网络 (CNN) 模型,用于图像分类任务网络结构:参数:input_shape (int) : 输入图像的边长(假设为正方形图像)in_channels (int) : 输入通道数(灰度图=1,RGB图=3)num_classes (int) : 分类任务的类别数"""# 第一个卷积块# 卷积层:提取局部特征# in_channels: 输入通道数# out_channels: 输出通道数(即卷积核数量)# kernel_size: 卷积核尺寸 5x5。

2025-03-16 20:13:29 750

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除