yolov5+关键点检测实现溺水检测与警报提示-溺水检测(代码+原理)

往期热门博客项目回顾:

计算机视觉项目大集合

改进的yolo目标检测-测距测速

路径规划算法

图像去雨去雾+目标检测+测距项目

交通标志识别项目

yolo系列-重磅yolov9界面-最新的yolo

姿态识别-3d姿态识别

深度学习小白学习路线

//正文开始!

人体关键点检测与人体检测技术结合应用于溺水检测,其意义在于能够实时准确地识别和定位正在水中挣扎或处于危险状态的人物,从而提高监控和预警效率,减少因未能及时发现而导致的溺水悲剧。具体原理和优势包括以下几个方面:
在这里插入图片描述

  1. 快速定位:首先,通过人体检测技术可以在视频流或图像中迅速锁定人物的位置,尤其是在复杂的水体环境中区分人体与其他物体。

  2. 精细识别:人体关键点检测则能进一步提供关于人体姿态和动作的详细信息,如手脚位置、头部朝向等。当人在溺水时,会有特定的动作特征,如无规律的手臂挥动、腿部上下浮动、面部露出水面的时间和次数减少等,这些特征可通过关键点变化体现出来。

  3. 行为分析:通过对检测到的关键点运动轨迹和姿势变化进行分析,可以识别出是否属于潜在的溺水行为模式。比如,正常的游泳者与溺水者在水面活动特点上存在显著差异,溺水者往往无法维持有效的划水动作或头颈部位置控制。

  4. 自动化预警:基于人工智能算法的系统能够在无人值守的情况下持续工作,一旦检测到可能的溺水行为,系统可以自动触发警报,通知相关人员及时介入救援。
    在这里插入图片描述

结合YOLOv5和关键点检测技术主要用于构建一个能够同时进行目标检测和关键点定位的系统。YOLOv5是一种高效的目标检测算法,具有速度快、准确性高的特点,而关键点检测则是用来预测目标物内部的关键点位置,如人体的手肘、膝盖、面部特征点等。

结合yolov5-主要创新点

在YOLOv5的基础上加入关键点检测的具体原理和步骤通常包括:

  1. 模型架构修改
    需要在YOLOv5的基础网络之上添加关键点预测分支。这个分支通常是回归网络,用于预测每个检测到的目标框内的关键点坐标。

  2. 训练数据准备
    准备包含标注关键点信息的数据集,如COCO数据集就包含了丰富的物体检测和关键点标注信息。

  3. 损失函数设计
    修改YOLOv5原有的损失函数,添加关键点定位误差的部分,如Smooth L1 Loss或者heatmap-based的方法(如 heatmap regression 或 heatmap classification)。

  4. 模型训练
    根据新的模型结构和训练数据进行训练,使得模型不仅能够检测出图像中的物体,还能准确地标记出每个目标的关键点位置。

例如,在优快云技术社区中提到的“yolov5人脸检测,带关键点检测”的案例,就是在YOLOv5的项目中通过修改模型结构和配置文件,实现了人脸检测的同时还能够对人脸的关键点进行精准回归。对于不同任务,可能还需要根据实际情况调整模型结构和训练策略。

溺水检测

class Tracker:
    def __init__(self):
        # Store the center positions of the objects
        self.center_points = {}
        # Keep the count of the IDs
        # each time a new object id detected, the count will increase by one
        self.id_count = 0


    def update(self, objects_rect):
        # Objects boxes and ids
        objects_bbs_ids = []

        # Get center point of new object
        for rect in objects_rect:
            x, y, w, h = rect
            cx = (x + x + w) // 2
            cy = (y + y + h) // 2

警报提示代码

"frame_check = 7\n",
    "flag = 0\n",
    "while True:\n",
    "    ret,frame=cap.read()\n",
    "    if ret==False:\n",
    "        break\n",
    "    #frame=cv2.resize(frame,(1020,500))\n",
    "    results = model(frame)\n",
    "    imgRGB = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)\n",
    "    \n",
    "    #Apply the mediapipe pose detection module for detection\n",
    "    result = pose.process(imgRGB)\n",
    "    #print(results.pose_landmarks)\n",
    "    h , w , c = frame.shape\n",
    "    # Draw landmarks\n",
    "    if result.pose_landmarks:\n",
    "        mpDraw.draw_landmarks(frame,result.pose_landmarks, mpPose.POSE_CONNECTIONS)\n",
    "        landmarks = result.pose_landmarks.landmark\n",
    "        \n",
    "        #for land in mpPose.PoseLandmark:\n",

因此,将人体关键点检测与人体检测技术整合起来,不仅可以大大提高监控系统的智能化程度,还可以为公共场所的安全管理、水上救援行动提供有力的技术支持。然而,这类技术仍需面对复杂光线、水体波动等因素带来的挑战,并且在算法设计上需要充分考虑各种特殊情况以避免误报和漏报。

智慧游泳馆-基于YOLOv9实现人员溺水检测系统python源码+详细运行教程+训练好的模型+评估指标曲 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.youkuaiyun.com/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【特别说明】 *项目内容完全原创,请勿对项目进行外传,或者进行违法等商业行为! 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值