【AI模型开发】如何使用YOLOv5进行目标检测?

本文收录于 《人工智能学习入门》专栏。从零基础开始,分享一些人工智能、机器学习、深度学习相关的知识,包括基本概念、技术原理、应用场景以及如何开发实战等等。

相信完整学习后会有很多收获。欢迎关注,谢谢!

一、前言

YOLOv5是一个开源的目标检测模型。它是YOLO系列的升级版,由Ultralytics开发,并于2020年年中发布。

YOLO的全称是you only look once,指只需要浏览一次就可以识别出图中的物体的类别和位置。

对计算机而言,能够“看到”的是图像被编码之后的数字,所以它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。

目标检测的主要目的是让计算机可以自动识别图片或者视频帧中所有目标的类别,并在该目标周围绘制边界框,标示出每个目标的位置。如图所示:

在这里插入图片描述

  • 图1(a)是图像分类任务,只需识别出这是一张斑马的图片。
  • 图1(b)是目标检测任务,不仅要识别出这是一张斑马的图片,还要标出图中斑马的位置。

本文简单介绍一下如何安装YOLOv5模型,以及如何该模型进行目标检测。

话不多说,我们一起进入正题吧。

二、部署模型

首先,创建一个专用的Anacoda虚拟环境。

以管理员身份,打开Anaconda Navigator,创建一个Anacoda虚拟环境,命名为yolov5。

在这里插入图片描述

之后,安装Pytorch框架。

Pytorch是一个开源的深度学习框架,而YOLOv5模型是基于该框架开发出来的。所以,我们也需要安装Pytorch。

以管理员身份,打开Anaconda Prompt命令行窗口,执行安装命令(PS:这里安装CPU版本):

conda install pytorch torchvision torchaudio cpuonly -c pytorch

在这里插入图片描述

之后,下载YOLOv5开源项目。

下载地址:https://github.com/ultralytics/yolov5

在这里插入图片描述

之后,使用Pycharm打开项目。

完整的YOLOv5工程目录如下图所示:

在这里插入图片描述

之后,设置项目的虚拟环境为yolov5。

在这里插入图片描述

之后,安装项目需要的依赖包。

打开Pycharm的命令行窗口,进入到项目工程目录下面,运行pip命令,开始安装项目需要的依赖包。

pip install -r requirements.txt

在这里插入图片描述

至此,YOLOv5模型部署完成。

三、进行目标检测

下面,开始使用YOLOv5模型,进行目标检测。

首先,把需要检查的图片存放在项目工程data\images目录下面。

在这里插入图片描述

为了方便,这里使用项目中默认的两张图片bus.jpg和zidane.jpg

图一,如下:

在这里插入图片描述

图二,如下:

在这里插入图片描述

之后,运行项目中detect.py脚本文件,开始进行目标检测。

在这里插入图片描述

检测过程中,控制台会输出相关的检测信息。

在这里插入图片描述

检测完成后,系统会自动把检测后的图片,保存在项目工程的runs\detect\exp目录下。
在这里插入图片描述

检测结果图片如下。

图一:

在这里插入图片描述

图二:

在这里插入图片描述

四、总结

以上介绍了如何安装YOLOv5模型,以及如何使用该模型对图片进行目标检测。希望通过分享这篇文章,让大家对YOLOv5模型有初步的认识和了解,谢谢。

如果您对文章中内容有疑问,欢迎在评论区进行留言,我会尽量抽时间给您回复。如果文章对您有帮助,欢迎点赞、收藏。您的点赞,是对我最大的支持和鼓励,谢谢 :-)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

姑苏老陈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值