YOLOv5读取摄像头实时检测目标并将裁剪后的部分保存

该博客介绍了如何利用Python处理USB相机实时视频流。首先,在datasets.py中注释掉与YouTube相关的代码,然后在detect.py中修改默认参数,使程序从相机(设备ID 0)读取视频。接下来,通过annotator.result()获取裁剪后的图片,并将其作为后续模型的输入。最后,更新了保存裁剪图片的代码,先进行裁剪操作再保存,确保保存的是裁剪后的图像。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.输入usb相机实时拍摄视频

1.在datasets.py文件中,按住Ctrl+F查找www.youtubo.com,把这个if语句模块注释掉;

2.在detect.py文件中,将默认参数default改为0,parser.add_argument( ‘–source’, type=str, default=‘0’, help=‘’)

3.此时的im0 = annotator.result()为裁剪后的图片。可以作为后续模型的输入使用。

2.保存裁剪图片

在detect.py文件中找到如下代码

if save_crop:
	save_one_box(xyxy, imc, file=save_dir / 'crops' / names[c] / f'{p.stem}.jpg', BGR=True)

改为如下代码:

if save_crop:
	crop_img = crop_one_box(xyxy, imc, BGR = True)
	save_one_box(xyxy, crop_img , file=save_dir / 'crops' / names[c] / f'{p.stem}.jpg', BGR=True)
一、基本概念 1. 什么是目标检测 目标检测(Object Detection)的任务是找图像中所有感兴趣的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心问题之一。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。 计算机视觉中关于图像识别有四大类任务: (1)分类-Classification:解决“是什么?”的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。 (2)定位-Location:解决“在哪里?”的问题,即定位这个目标的的位置。 (3)检测-Detection:解决“在哪里?是什么?”的问题,即定位这个目标的位置且知道目标物是什么。 (4)分割-Segmentation:分为实例的分割(Instance-level)和场景分割(Scene-level),解决“每一个像素属于哪个目标物或场景”的问题。 所以,目标检测是一个分类、回归问题的叠加。 2. 目标检测的核心问题 (1)分类问题:即图片(或某个区域)中的图像属于哪个类别。 (2)定位问题:目标可能现在图像的任何位置。 (3)大小问题:目标有各种不同的大小。 (4)形状问题:目标可能有各种不同的形状。 3. 目标检测算法分类 基于深度学习的目标检测算法主要分为两类:Two stage和One stage。 1)Tow Stage 先进行区域生成,该区域称之为region proposal(简称RP,一个有可能包含待检物体的预选框),再通过卷积神经网络进行样本分类。 任务流程:特征提取 --> 生成RP --> 分类/定位回归。 常见tow stage目标检测算法有:R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN和R-FCN等。 2)One Stage 不用RP,直接在网络中提取特征来预测物体分类和位置。 任务流程:特征提取–> 分类/定位回归。 常见的one stage目标检测算法有:OverFeat、YOLOv1、YOLOv2、YOLOv3、SSD和RetinaNet等。 4. 目标检测应用 1)人脸检测 智能门控 员工考勤签到 智慧超市 人脸支付 车站、机场实名认证 公共安全:逃犯抓捕、走失人员检测 2)行人检测 智能辅助驾驶 智能监控 暴恐检测(根据面相识别暴恐倾向) 移动侦测、区域入侵检测、安全帽/安全带检测 3)车辆检测 自动驾驶 违章查询、关键通道检测 广告检测检测广告中的车辆类型,弹链接) 4)遥感检测 大地遥感,如土地使用、公路、水渠、河流监控 农作物监控 军事检测 二、目标检测原理 目标检测分为两大系列——RCNN系列和YOLO系列,RCNN系列是基于区域检测的代表性算法,YOLO是基于区域提取的代表性算法,另外还有著名的SSD是基于前两个系列的改进。 1. 候选区域产生 很多目标检测技术都会涉及候选框(bounding boxes)的生成,物体候选框获取当前主要使用图像分割与区域生长技术。区域生长(合)主要由于检测图像中存在的物体具有局部区域相似性(颜色、纹理等)。目标识别与图像分割技术的发展进一步推动有效提取图像中信息。 1)滑动窗口 通过滑窗法流程图可以很清晰理解其主要思路:首先对输入图像进行不同窗口大小的滑窗进行从左往右、从上到下的滑动。每次滑动时候对当前窗口执行分类器(分类器是事先训练好的)。如果当前窗口得到较高的分类概率,则认为检测到了物体。对每个不同窗口大小的滑窗都进行检测后,会得到不同窗口检测到的物体标记,这些窗口大小会存在重复较高的部分,最后采用非极大值抑制(Non-Maximum Suppression, NMS)的方法进行筛选。最终,经过NMS筛选后获得检测到的物体。 滑窗法简单易于理解,但是不同窗口大小进行图像全局搜索导致效率低下,而且设计窗口大小时候还需要考虑物体的长宽比。所以,对于实时性要求
评论 29
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值