用yolo-v3检测算法检测图片中的apple和damaged_apple

本文介绍了如何使用YOLOv3算法检测苹果中的好苹果和坏苹果。通过数据集加标签、配置GPU和Python环境、下载预训练模型等步骤,详细讲解了训练和预测过程。虽然由于数据集限制,效果不完美,但进一步优化有望提升检测精度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.前言

好久没发博客了,最近简单复现了yolo-v3算法检测好/坏苹果。举个栗子:下面是一个坏掉的苹果。(坏苹果是真的容易引起强烈不适)(图片来源:bing-图片)把他丢到跑好的模型里面,结果如下:
在这里插入图片描述
在这里插入图片描述
当然好苹果肯定也是可以检测出来的:
在这里插入图片描述
在这里插入图片描述
算法会把检测到的好/坏苹果框出来,并且打个分(100分满分,指对检测结果有多大的把握),坏苹果本来也有个分数的,只是因为图片太小了。。。

Reference

  1. 整个算法流程:https://medium.com/deepquestai/ai-in-agriculture-detecting-defects-in-apples-b246799b329c
  2. 给数据加label:https://medium.com/deepquestai/object-detection-training-preparing-your-custom-dataset-6248679f0d1d
  3. 算法详解:https://blog.youkuaiyun.com/u014380165/article/details/72616238,自己推肯定是可以的,不过要花不少的时间。
  4. 还有一些配环境的大大小小的网站,用到的时候给出。

感谢这些参考文献,让我跑通了代码!

2.前期准备

2.1 数据集加标签

跑模型首先得有数据集,数据集你就自己找咯,我讲讲怎么给数据集加标签。方法是参考文献2,强推用windows加label的方法。

首先,要安装两个python3的库lxml, pyqt5,然后下载加label的工具,点一下超链接就可以下载了。长这样。在这里插入图片描述

如果双击打不开,打开cmd输入powershell后,进入到对应的目录,运行labelImg.exe就会弹出可视化界面出来了,啪的一下,很快嗷(基于pyqt5),如下图所示。
在这里插入图片描述
这个时候就弹出一个叫labelImg的窗口,如图所示:
在这里插入图片描述
接下来就是给图像加标签:

  1. 左上角选择Open Dir,导入数据集所在的文件位置
  2. 选择输出label的目录,输出是xml文件(基于lxml库)。
  3. 可以看到右下角会有你的文件序列。
  4. 给苹果加label。

在这里插入图片描述
点了4那个按钮后,可以选定图中的一块区域,比如我选择一个苹果,如下图所示:
在这里插入图片描述
然后会弹出让你输入他的label,如图:
在这里插入图片描述
输入apple,点击确定,他的label就出来了。同样的,一张图不止一个苹果,也有可能是坏苹果,因此可以多加几个label,如图:
在这里插入图片描述
这个时候可以看到,被加过标签的框被记录了下来,点击Save后点击Next Image就可以继续给下一张图加标签了。

被加过标签的图像,会以.xml文件存在你的输出目录中,如图:

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值