本文收录于 《人工智能学习入门》专栏。从零基础开始,分享一些人工智能、机器学习、深度学习相关的知识,包括基本概念、技术原理、应用场景以及如何开发实战等等。
相信完整学习后会有很多收获。欢迎关注,谢谢!
一、前言
YOLOv5是一个开源的目标检测模型。它是YOLO系列的升级版,由Ultralytics开发,并于2020年年中发布。
YOLO的全称是you only look once,指只需要浏览一次就可以识别出图中的物体的类别和位置。
对计算机而言,能够“看到”的是图像被编码之后的数字,所以它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。
目标检测的主要目的是让计算机可以自动识别图片或者视频帧中所有目标的类别,并在该目标周围绘制边界框,标示出每个目标的位置。如图所示:
- 图1(a)是图像分类任务,只需识别出这是一张斑马的图片。
- 图1(b)是目标检测任务,不仅要识别出这是一张斑马的图片,还要标出图中斑马的位置。
本文简单介绍一下如何安装YOLOv5模型,以及如何该模型进行目标检测。
话不多说,我们一起进入正题吧。
二、部署模型
首先,创建一个专用的Anacoda虚拟环境。
以管理员身份,打开Anaconda Navigator,创建一个Anacoda虚拟环境,命名为yolov5。
之后,安装Pytorch框架。
Pytorch是一个开源的深度学习框架,而YOLOv5模型是基于该框架开发出来的。所以,我们也需要安装Pytorch。
以管理员身份,打开Anaconda Prompt命令行窗口,执行安装命令(PS:这里安装CPU版本):
conda install pytorch torchvision torchaudio cpuonly -c pytorch
之后,下载YOLOv5开源项目。
下载地址:https://github.com/ultralytics/yolov5
之后,使用Pycharm打开项目。
完整的YOLOv5工程目录如下图所示:
之后,设置项目的虚拟环境为yolov5。
之后,安装项目需要的依赖包。
打开Pycharm的命令行窗口,进入到项目工程目录下面,运行pip命令,开始安装项目需要的依赖包。
pip install -r requirements.txt
至此,YOLOv5模型部署完成。
三、进行目标检测
下面,开始使用YOLOv5模型,进行目标检测。
首先,把需要检查的图片存放在项目工程data\images目录下面。
为了方便,这里使用项目中默认的两张图片bus.jpg和zidane.jpg
图一,如下:
图二,如下:
之后,运行项目中detect.py脚本文件,开始进行目标检测。
检测过程中,控制台会输出相关的检测信息。
检测完成后,系统会自动把检测后的图片,保存在项目工程的runs\detect\exp目录下。
检测结果图片如下。
图一:
图二:
四、总结
以上介绍了如何安装YOLOv5模型,以及如何使用该模型对图片进行目标检测。希望通过分享这篇文章,让大家对YOLOv5模型有初步的认识和了解,谢谢。
如果您对文章中内容有疑问,欢迎在评论区进行留言,我会尽量抽时间给您回复。如果文章对您有帮助,欢迎点赞、收藏。您的点赞,是对我最大的支持和鼓励,谢谢 :-)