【深度学习】数竹签演示软件系统

在这里插入图片描述
往期文章列表:
【YOLO深度学习系列】图像分类、物体检测、实例分割、物体追踪、姿态估计、定向边框检测演示系统【含源码】
【深度学习】物体检测/实例分割/物体追踪/姿态估计/定向边框/图像分类检测演示系统【含源码】
【深度学习】YOLOV8数据标注及模型训练方法整体流程介绍及演示
【深度学习】行人跌倒行为检测软件系统
【深度学习】火灾检测软件系统
【深度学习】吸烟行为检测软件系统

软件功能演示

摘要:本文主要使用YOLOV8深度学习框架自训练了一个“数竹签检测模型”,基于此模型使用PYQT5实现了一款界面软件用于功能演示。让您可以更好的了解和学习,该软件支持图片、视频以及摄像头进行目标检测,使用目标检测的方式可以对竹签/筷子/钢管等目标进行监测和计数,应用场景还是比较丰富的。本系统所涉及的训练数据及软件源码已打包上传。
文中源码文件【获取方式】:关注公众号:利哥AI实例探险, 给公众号发送 “数竹签” 获取下载方式 给公众号发送 “数竹签数据集”
获取数据集下载方式,由于本人能力有限,难免有疏漏之处。

数竹签

图片检测演示

点击图片图标,选择需要检测的图片,即可得到检测结果。
在这里插入图片描述

视频检测演示

点击视频图标,选择需要检测的视频,即可得到检测结果。
在这里插入图片描述

摄像头功能

系统还提供了摄像头实时监测功能,可自行尝试

模型训练

整体可参考:【深度学习】YOLOV8数据标注及模型训练方法整体流程介绍及演示
以下是简单说明:
关于YOLOV8的数据标注及模型训练更详细的内容,可关注我的另一篇专门记录这部分的文章。

数据集准备及标注

目标检测的数据标注,可以用LabelImg,建议直接下载其可执行程序,而不是通过pip安装使用。
准备了 “数竹签数据集”,用作训练演示。把准备的数据集分为训练和验证两个数据集,一共包含 210 张图片,部分图片如下所示,这些数据集来源于网上:
在这里插入图片描述

模型训练

可参考:【深度学习】YOLOV8数据标注及模型训练方法整体流程介绍及演示

  1. 新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别,yolov8在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证,data.yaml的具体内容如下,路径和names改成具体的即可:
    在这里插入图片描述

注:train与val后面表示需要训练图片的路径,建议直接填写绝对路径
2. 数据准备完成后,通过调用train.py文件进行训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小(根据内存大小调整即可,最小为1),代码如下所示:
[图片]

  1. 用到基础模型yolov8n.pt,所涉及的文件已打包上传,可关注【深度学习】YOLOV8数据标注及模型训练方法整体流程介绍及演示进行获取,运行 python train.py进行训练,如果想后台运行,可以使用 nohup python train.py & 命令,训练过程如下所示:
    [图片]

训练结果保存在 /runs/train 系列文件夹中,训练完的最终文件目录结构如下:
[图片]

训练结果评估

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取,下载方式放在文章开头部分。
通常用损失函数下降的曲线来观察模型训练的情况,yolov8训练时主要包含三个方面的损失:定位损失、分类损失和动态特征损失,训练结束后,在runs/目录下找到训练过程及结果文件:
[图片]

  • 定位损失box_loss:预测框与标定框之间的误差GloU,越小定位越准确
  • 分类损失cls_loss:计算锚框与对应标定分类是否正确,越小分类越准确
  • 动态特征损失dfl_loss:一种用于回归预测框与目标框之间距离的损失函数,通过计算动态特征损失,可以更准确地调整预测框的位置,提高目标检测的准确性。
    本文训练结果如下:
    [图片]

PR曲线体现精确率和召回率的关系,mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示iou为正负样本的阈值,mAP@0.5表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的mAP@0.5。
[图片]

检测结果识别

模型训练完成后,可以得到一个最佳的训练结果模型best.pt文件,在runs/train/weights/bset.pt,可以使用该文件进行推理检测。
在这里插入图片描述
原文地址:【深度学习】数竹签演示软件系统

<think>好的,用户想用OpenCV实现竹签。首先我需要回顾一下OpenCV中常用的物体计方法,比如Blob检测、轮廓分析、霍夫变换等。根据之前的引用[1],Blob Detection和轮廓分析被用于钢管计,但结合深度学习效果更好。不过用户可能希望先用传统方法尝试。 首先,竹签的形状通常是细长的,可能排列比较密集。传统图像处理步骤一般是预处理、分割、检测。预处理可能需要灰度化、二值化、去噪。然后通过边缘检测或阈值处理来分割竹签。 考虑到竹签的细长形状,可能需要使用边缘检测,比如Canny,然后找轮廓或者用霍夫直线变换来检测每根竹签。不过如果竹签排列密集,可能会有粘连,这时候轮廓分析可能会合并多个竹签,导致计不准。这时候可能需要形态学操作来分离物体,比如腐蚀膨胀。 另外,引用[1]中提到结合深度学习更好,但用户可能暂时不想用深度学习,所以需要尽量优化传统方法。可能需要测试不同的预处理参,比如高斯模糊的核大小、阈值处理的参,或者形态学操作的迭代次。 示例代码方面,可能需要读取图像,转灰度,高斯模糊,Canny边缘检测,然后找轮廓,或者使用二值化后的图像进行轮廓分析。计轮廓的量,但要注意处理重叠的情况。或者使用HoughLinesP检测直线,统计直线量作为竹签量。 需要注意的是,如果竹签的末端比较圆,可能Blob检测会更有效,比如通过面积、圆度等参过滤。或者如果竹签在图像中呈现为圆形截面,可能需要霍夫圆检测,但引用[1]提到Hough Circle用于钢管检测,钢管截面是圆形,但竹签可能截面较小,或者形状不同。 因此,可能的步骤是: 1. 图像预处理:转灰度,高斯模糊,二值化。 2. 形态学操作:开运算去除噪点,闭运算连接断裂部分。 3. 边缘检测或阈值处理得到二值图像。 4. 使用轮廓分析,找到所有轮廓,排除过小或过大的区域。 5. 统计轮廓量作为竹签目。 但实际中可能需要调整参,比如二值化的阈值、形态学操作的核大小等。如果效果不好,可能需要尝试其他方法,比如霍夫直线检测,或者结合Blob检测的参设置。 此外,引用[2]提到的run函可能涉及深度学习模型,但用户目前可能不需要。不过可以提到如果传统方法效果不佳,可以考虑结合深度学习模型进行目标检测,比如YOLO等。 现在需要编写示例代码,可能使用轮廓分析的方法。需要注意可能遇到的问题,比如光照不均导致二值化效果差,或者竹签颜色与背景相近,这时可能需要调整颜色空间,比如使用HSV通道分离。 总之,步骤大致是预处理→分割→检测→计。需要测试不同参,并提供示例代码,并说明可能的优化方向。</think>以下是使用OpenCV实现竹签的基本方法和示例代码,主要基于轮廓分析技术: ### 一、实现步骤 1. **图像预处理** - 灰度化:将图像转换为单通道灰度图 - 高斯模糊:使用$5 \times 5$高斯核降噪 - 自适应阈值:处理光照不均问题$$ T(x,y) = \mu(x,y) - C $$ 其中$\mu$是局部均值,$C$为常[^1] 2. **形态学操作** - 开运算:消除细小噪点 - 闭运算:填充孔洞,连接断裂区域 3. **目标检测** - Canny边缘检测:$$ \text{梯度幅值} = \sqrt{(G_x^2 + G_y^2)} $$ - 轮廓查找:使用层次轮廓分析 4. **过滤与计** - 面积过滤:排除过小/过大区域 - 长宽比过滤:保留细长形状特征 ### 二、示例代码 ```python import cv2 import numpy as np def count_bamboo_sticks(img_path): # 读取图像 img = cv2.imread(img_path) gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 预处理 blurred = cv2.GaussianBlur(gray, (5, 5), 0) thresh = cv2.adaptiveThreshold(blurred, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY_INV, 11, 2) # 形态学操作 kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (3,3)) opened = cv2.morphologyEx(thresh, cv2.MORPH_OPEN, kernel, iterations=2) closed = cv2.morphologyEx(opened, cv2.MORPH_CLOSE, kernel, iterations=3) # 轮廓检测 contours, _ = cv2.findContours(closed, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) # 过滤条件 min_area = 50 max_area = 500 valid_contours = [] for cnt in contours: area = cv2.contourArea(cnt) if min_area < area < max_area: x,y,w,h = cv2.boundingRect(cnt) aspect_ratio = w/h if w > h else h/w if aspect_ratio > 3: # 细长特征 valid_contours.append(cnt) # 绘制结果 result = cv2.drawContours(img, valid_contours, -1, (0,255,0), 2) count = len(valid_contours) cv2.putText(result, f"Count: {count}", (10,30), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0,0,255), 2) cv2.imshow("Result", result) cv2.waitKey(0) return count # 使用示例 count = count_bamboo_sticks("bamboo.jpg") print(f"检测到竹签量:{count}") ``` ### 三、优化建议 1. **光照补偿**:使用CLAHE算法增强对比度 2. **颜色空间转换**:尝试HSV空间分离竹签颜色 3. **深度学习融合**:当传统方法失效时,可结合YOLO等目标检测模型[^2] 4. **三维重构**:对于堆叠场景,可尝试多视角成像
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

利哥AI实例探险

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值