毕业项目推荐:基于yolov8/yolov5/yolo11的海洋垃圾检测识别系统(python+卷积神经网络)

往期经典回顾

项目项目
基于yolov8的车牌检测识别系统基于yolov8/yolov5的钢铁缺陷检测系统
基于yolov8的人脸表情检测识别系统基于深度学习的PCB板缺陷检测系统
基于yolov8/yolov5的茶叶等级检测系统基于yolov8/yolov5的农作物病虫害检测识别系统
基于yolov8/yolov5的交通标志检测识别系统基于yolov8/yolov5的课堂行为检测识别系统
基于yolov8/yolov5的海洋垃圾检测识别系统基于yolov8/yolov5的垃圾检测与分类系统
基于yolov8/yolov5的行人摔倒检测识别系统基于yolov8/yolov5的草莓病害检测识别系统
基于yolov8/yolov5/yolo11的动物检测识别系统

概要

本文将详细介绍如何以官方yolov8yolov5yolov11为主干,实现对海洋里垃圾的检测识别,且利用PyQt5设计了两种简约的系统UI界面。在界面中,您可以选择自己的视频文件、图片文件进行检测。此外,您还可以更换自己训练的主干模型,进行自己数据的检测。

海洋垃圾污染严重威胁海洋生态平衡与人类健康,传统人工巡查及遥感监测手段受限于效率低、成本高及复杂水下环境干扰,难以实现大范围精准检测。基于深度学习的海洋垃圾检测系统通过多源数据(如卫星影像、水下拍摄)的高效解析,可自动识别并定位漂浮物、微塑料等垃圾目标,显著提升复杂光照与浑浊水质下的检测鲁棒性。该系统为海洋污染动态监测、生态修复决策及智能清理装备研发提供关键技术支撑,对推动海洋环境保护数字化转型、助力全球可持续发展目标具有重要实践价值。

我们的系统界面不仅外观优美,而且具备出色的检测精度和强大的功能。它支持多目标实时检测,并允许您自由选择感兴趣的检测目标。

yolov8/yolov5界面如下
在这里插入图片描述

yolo11界面如下 在这里插入图片描述

关键词:海洋垃圾识别;目标检测;深度学习;特征融合;注意力机制;卷积神经网络

在这里插入图片描述

一、整体资源介绍

项目中所用到的算法模型和数据集等信息如下:

算法模型:
    yolov8yolov8 + SE注意力机制yolov5yolov5 + SE注意力机制yolo11yolo11 + SE注意力机制

数据集:
    网上下载的数据集,格式都已转好,可直接使用。

以上是本套代码算法的简单说明,添加注意力机制是本套系统的创新点

技术要点

  • OpenCV:主要用于实现各种图像处理和计算机视觉相关任务。
  • Python:采用这种编程语言,因其简洁易学且拥有大量丰富的资源和库支持。
  • 数据增强技术: 翻转、噪点、色域变换,mosaic等方式,提高模型的鲁棒性。

功能展示:

部分核心功能如下:

  • 功能1: 支持单张图片识别
  • 功能2: 支持遍历文件夹识别
  • 功能3: 支持识别视频文件
  • 功能4: 支持摄像头识别
  • 功能5: 支持结果文件导出(xls格式)
  • 功能6: 支持切换检测到的目标查看

功能1 支持单张图片识别

系统支持用户选择图片文件进行识别。通过点击图片选择按钮,用户可以选择需要检测的图片,并在界面上查看所有识别结果。该功能的界面展示如下图所示:
在这里插入图片描述

在这里插入图片描述

功能2 支持遍历文件夹识别

系统支持选择整个文件夹进行批量识别。用户选择文件夹后,系统会自动遍历其中的所有图片文件,并将识别结果实时更新显示在右下角的表格中。该功能的展示效果如下图所示:
在这里插入图片描述

在这里插入图片描述

功能3 支持识别视频文件

在许多情况下,我们需要识别视频中的目标。因此,系统设计了视频选择功能。用户点击视频按钮即可选择待检测的视频,系统将自动解析视频并逐帧识别多个目标,同时将识别结果记录在右下角的表格中。以下是该功能的展示效果:
在这里插入图片描述

在这里插入图片描述

功能4 支持摄像头识别

在许多场景下,我们需要通过摄像头实时识别目标。为此,系统提供了摄像头选择功能。用户点击摄像头按钮后,系统将自动调用摄像头并进行实时识别,识别结果会即时记录在右下角的表格中。
在这里插入图片描述

在这里插入图片描述

功能5 支持结果文件导出(xls格式)

本系统还添加了对识别结果的导出功能,方便后续查看,目前支持导出xls数据格式,功能展示如下:
在这里插入图片描述

在这里插入图片描述

功能6 支持切换检测到的目标查看

在这里插入图片描述

在这里插入图片描述

二、数据集

提供全面、结构化的数据集,它不仅包含了丰富的类别,而且已经细致地划分为训练集、验证集和测试集,以满足不同阶段的模型训练需求。而且数据集的格式,可直接支持YOLO训练,无需额外的格式转换工作。

3500张左右,包括以下类别
‘Mask’: ‘口罩’,
‘can’: ‘易拉罐’,
‘cellphone’: ‘手机’,
‘electronics’: ‘电子元件’,
‘gbottle’: ‘玻璃瓶’,
‘glove’: ‘手套’,
‘metal’: ‘金属’,
‘misc’: ‘其他垃圾’,
‘net’: ‘渔网’,
‘pbag’: ‘塑料袋’,
‘pbottle’: ‘塑料瓶’,
‘plastic’: ‘塑料’,
‘rod’: ‘杆’,
‘sunglasses’: ‘太阳镜’,
‘tire’: ‘轮胎’,

部分数据样式如下:

在这里插入图片描述

三、算法介绍

1. YOLOv8 概述

简介

YOLOv8算法的核心特性和改进如下:

  • 全新SOTA模型
    YOLOv8 提供了全新的最先进(SOTA)的模型,包括P5 640P6 1280分辨率的目标检测网络,同时还推出了基于YOLACT的实例分割模型。与YOLOv5类似,它提供了N/S/M/L/X五种尺度的模型,以满足不同场景的需求。
  • Backbone
    骨干网络和Neck部分参考了YOLOv7 ELAN的设计思想。
    YOLOv5的C3结构替换为梯度流更丰富的C2f结构
    针对不同尺度的模型,调整了通道数,使其更适配各种任务需求。
    在这里插入图片描述
    网络结构如下:
    在这里插入图片描述

相比之前版本,YOLOv8对模型结构进行了精心微调,不再是“无脑”地将同一套参数应用于所有模型,从而大幅提升了模型性能。这种优化使得不同尺度的模型在面对多种场景时都能更好地适应。

然而,新引入的C2f模块虽然增强了梯度流,但其内部的Split等操作对特定硬件的部署可能不如之前的版本友好。在某些场景中,C2f模块的这些特性可能会影响模型的部署效率

2. YOLOv5 概述

简介

YOLOV5有YOLOv5n,YOLOv5s,YOLOv5m,YOLOV5l、YOLO5x五个版本。这个模型的结构基本一样,不同的是deth_multiole模型深度和width_multiole模型宽度这两个参数。就和我们买衣服的尺码大小排序一样,YOLOV5n网络是YOLOV5系列中深度最小,特征图的宽度最小的网络。其他的三种都是在此基础上不断加深,不断加宽。不过最常用的一般都是yolov5s模型。

在这里插入图片描述
本系统采用了基于深度学习的目标检测算法——YOLOv5。作为YOLO系列算法中的较新版本,YOLOv5在检测的精度和速度上相较于YOLOv3和YOLOv4都有显著提升。它的核心理念是将目标检测问题转化为回归问题,简化了检测过程并提高了性能。

YOLOv5引入了一种名为SPP (Spatial Pyramid Pooling)的特征提取方法。SPP能够在不增加计算量的情况下,提取多尺度特征,从而显著提升检测效果。

在检测流程中,YOLOv5首先通过骨干网络对输入图像进行特征提取,生成一系列特征图。然后,对这些特征图进行处理,生成检测框和对应的类别概率分数,即每个检测框内物体的类别和其置信度

YOLOv5的特征提取网络采用了CSPNet (Cross Stage Partial Network)结构。它将输入特征图分成两部分,一部分通过多层卷积处理,另一部分进行直接下采样,最后再将两部分特征图进行融合。这种设计增强了网络的非线性表达能力,使其更擅长处理复杂背景和多样化物体的检测任务。

在这里插入图片描述

3. YOLO11 概述

YOLOv11:Ultralytics 最新目标检测模型

YOLOv11 是 Ultralytics 公司在 2024 年推出的 YOLO 系列目标检测模型的最新版本。以下是对 YOLOv11 的具体介绍:

主要特点

  1. 增强的特征提取

    • 采用改进的骨干和颈部架构,如在主干网络中引入了 c2psa 组件,并将 c2f 升级为 c3k2
    • c3k 允许用户自定义卷积模块的尺寸,提升了灵活性。
    • c2psa 通过整合 psa(位置敏感注意力机制)来增强模型的特征提取效能。
    • 颈部网络采用了 pan 架构,并集成了 c3k2 单元,有助于从多个尺度整合特征,并优化特征传递的效率。
  2. 针对效率和速度优化

    • 精细的架构设计和优化的训练流程,在保持准确性和性能最佳平衡的同时,提供更快的处理速度。
    • 相比 YOLOv10,YOLOv11 的延迟降低了 25%-40%,能够达到每秒处理 60 帧 的速度,是目前最快的目标检测模型之一。
  3. 更少的参数,更高的准确度

    • YOLOv11mCOCO 数据集上实现了比 YOLOv8m 更高的 mAP,参数减少了 22%,提高了计算效率,同时不牺牲准确度。
  4. 跨环境的适应性

    • 可无缝部署在 边缘设备云平台 和配备 NVIDIA GPU 的系统上,确保最大的灵活性。
  5. 支持广泛的任务范围

    • 支持多种计算机视觉任务,包括 目标检测实例分割图像分类姿态估计定向目标检测(OBB)

架构改进

  1. 主干网络

    • 引入了 c2psa 组件,并将 c2f 升级为 c3k2
    • c3k 支持用户自定义卷积模块尺寸,增强灵活性。
    • c2psa 整合了 psa(位置敏感注意力机制),提升特征提取效能。
  2. 颈部网络

    • 采用 pan 架构,并集成了 c3k2 单元,帮助从多个尺度整合特征并优化特征传递效率。
  3. 头部网络

    • YOLOv11 的检测头设计与 YOLOv8 大致相似。
    • 在分类(cls)分支中,采用了 深度可分离卷积 来增强性能。

性能优势

  1. 精度提升

    • COCO 数据集上取得了显著的精度提升:
      • YOLOv11x 模型的 mAP 得分高达 54.7%
      • 最小的 YOLOv11n 模型也能达到 39.5%mAP 得分
    • 与前代模型相比,精度有明显进步。
  2. 速度更快

    • 能够满足实时目标检测需求

🌟 四、模型训练步骤

  1. 使用pycharm打开代码,找到train.py打开,示例截图如下:
    在这里插入图片描述

  2. 修改 model_yaml 的值,根据自己的实际情况修改,想要训练 yolov8s模型 就 修改为 model_yaml = yaml_yolov8s, 训练 添加SE注意力机制的模型就修改为 model_yaml = yaml_yolov8_SE

  3. 修改data_path 数据集路径,我这里默认指定的是traindata.yaml 文件,如果训练我提供的数据,可以不用改

  4. 修改 model.train()中的参数,按照自己的需求和电脑硬件的情况更改

    # 文档中对参数有详细的说明
    model.train(data=data_path,             # 数据集
                imgsz=640,                  # 训练图片大小
                epochs=200,                 # 训练的轮次
                batch=2,                    # 训练batch
                workers=0,                  # 加载数据线程数
                device='0',                 # 使用显卡
                optimizer='SGD',            # 优化器
                project='runs/train',       # 模型保存路径
                name=name,                  # 模型保存命名
                )
    
  5. 修改traindata.yaml文件, 打开 traindata.yaml 文件,如下所示:
    在这里插入图片描述
    在这里,只需修改 path 的值,其他的都不用改动(仔细看上面的黄色字体),我提供的数据集默认都是到 yolo 文件夹,设置到 yolo 这一级即可,修改完后,返回 train.py 中,执行train.py

  6. 打开 train.py ,右键执行。
    在这里插入图片描述

  7. 出现如下类似的界面代表开始训练了
    在这里插入图片描述

  8. 训练完后的模型保存在runs/train文件夹下
    在这里插入图片描述


🌟 五、模型评估步骤

  1. 打开val.py文件,如下图所示:
    在这里插入图片描述

  2. 修改 model_pt 的值,是自己想要评估的模型路径

  3. 修改 data_path ,根据自己的实际情况修改,具体如何修改,查看上方模型训练中的修改步骤

  4. 修改 model.val()中的参数,按照自己的需求和电脑硬件的情况更改

    model.val(data=data_path,           # 数据集路径
              imgsz=300,                # 图片大小,要和训练时一样
              batch=4,                  # batch
              workers=0,                # 加载数据线程数
              conf=0.001,               # 设置检测的最小置信度阈值。置信度低于此阈值的检测将被丢弃。
              iou=0.6,                  # 设置非最大抑制 (NMS) 的交叉重叠 (IoU) 阈值。有助于减少重复检测。
              device='0',               # 使用显卡
              project='runs/val',       # 保存路径
              name='exp',               # 保存命名
              )
    
  5. 修改完后,即可执行程序,出现如下截图,代表成功(下图是示例,具体以自己的实际项目为准。)
    在这里插入图片描述

  6. 评估后的文件全部保存在在 runs/val/exp... 文件夹下
    在这里插入图片描述


🌟 六、训练结果

我们每次训练后,会在 run/train 文件夹下出现一系列的文件,如下图所示:
在这里插入图片描述

   如果大家对于上面生成的这些内容(confusion_matrix.png、results.png等)不清楚是什么意思,可以在我的知识库里查看这些指标的具体含义,示例截图如下:

在这里插入图片描述

🌟完整代码

   如果您希望获取博文中提到的所有实现相关的完整资源文件(包括测试图片、视频、Python脚本、UI文件、训练数据集、训练代码、界面代码等),这些文件已被全部打包。以下是完整资源包的截图

在这里插入图片描述

您可以通过下方演示视频视频简介部分进行获取:

演示视频:
基于深度学习的海洋垃圾检测识别系统(v8)
基于深度学习的海洋垃圾检测识别系统(v5)
基于深度学习的海洋垃圾检测识别系统(v11)

基于YOLOv9实现水下垃圾识别检测系统python源码+详细运行教程+训练好的模型+评估指标曲线.zi 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.youkuaiyun.com/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【特别说明】 *项目内容完全原创,请勿对项目进行外传,或者进行违法等商业行为! 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
### 海洋垃圾检测识别系统工作流程 #### 系统初始化与环境配置 在启动海洋垃圾检测识别系统之前,需完成必要的软件包安装以及依赖库的加载。这一步骤确保后续操作能够在合适的环境中顺利执行。 ```bash pip install ultralytics pyqt5 opencv-python ``` #### 用户交互界面构建 通过PyQt5框架搭建简洁直观的操作面板[^2],允许使用者轻松导入待分析的数据源——无论是本地存储的照片还是录制好的视频片段均可作为输入对象供进一步处理之用。 #### 数据预处理阶段 对于选定的目标文件(即图像或影像),先实施初步清理动作,比如调整分辨率大小、裁剪无关区域等措施来优化样本质量;随后将其转换成适合送入深度学习模型的形式。 #### 垃圾目标定位与分类预测 核心环节在于调用YOLOv8/v5架构下的预训练权重参数对经过前序准备后的素材开展实时监测任务,一旦发现疑似废弃物则立即圈定其边界框位置并给出所属类别的概率评估结果。 ```python from ultralytics import YOLO model = YOLO('yolov8n.pt') # 加载轻量级版本模型 results = model.predict(source='path_to_image_or_video', save=True, imgsz=640) for r in results: boxes = r.boxes.cpu().numpy() for box in boxes: r_class = int(box.cls[0]) conf = round(float(box.conf[0]) * 100, 1) print(f'Class {r_class} with confidence {conf}%') ``` #### 结果可视化呈现 最后,在图形界面上动态渲染出标注好标签的信息图表以便于观察者快速理解最终判定结论。同时支持导出带有标记痕迹的新版多媒体文档用于存档记录或是分享交流目的。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值