蘑菇品种识别及可食用检测-目标检测数据集
链接: https://pan.baidu.com/s/1Q-p0D18J49SauPGK0mj3Kg?pwd=rvgd
提取码: rvgd
数据集信息介绍:
共有 8830 张图像和一一对应的标注文件
标注文件格式提供了两种,包括VOC格式的xml文件和YOLO格式的txt文件。
标注的对象共有以下5种:
[‘Gun’, ‘Knife’, ‘Pliers’, ‘Scissors’, ‘Wrench’]
标注框的数量信息如下:(标注时一般是用英文标的,括号里提供标注对象的中文作为参考)
Gun: 2025(枪支)
Knife: 1041(小刀)
Pliers: 1975: (钳子)
Scissors: 1841:(剪刀)
Wrench: 1948:(扳手)
注:一张图里可能标注了多个对象,所以标注框总数可能会大于图片的总数。

all_images文件:存储数据集的图片,截图如下:

all_txt文件夹和classes.txt: 存储yolo格式的txt标注文件,数量和图像一样,每个标注文件一一对应。


如何详细的看yolo格式的标准文件,请自己百度了解,简单来说,序号0表示的对象是classes.txt中数组0号位置的名称。
all_xml文件:VOC格式的xml标注文件。数量和图像一样,每个标注文件一一对应。

标注结果:

如何详细的看VOC格式的标准文件,请自己百度了解。
两种格式的标注都是可以使用的,选择其中一种即可。
——————————————————————————————————————
写论文参考
基于深度学习的安全检查X光危险品目标检测研究
摘要:随着公共交通安全的日益重要,X光安检仪成为危险品检测的关键设备。本文针对安全检查场景中的危险品自动检测问题,构建了一个包含8830张X光图像的数据集,涵盖枪支、刀具、钳子、剪刀和扳手五类危险品。本研究提出了一种基于改进YOLOv5的目标检测模型,通过引入CA注意力机制和优化特征融合网络,显著提升了小目标危险品的检测精度。实验结果表明,该模型在自建数据集上的mAP@0.5达到92.7%,比原始YOLOv5模型提升4.2%,能够有效满足实际安检场景的检测需求。
关键词:目标检测;X光图像;危险品识别;深度学习;YOLOv5
1. 引言
1.1 研究背景与意义
在当今社会公共安全领域,安全检查已成为机场、地铁站、火车站等公共场所的必要环节。X光安检仪作为核心检测设备,通过对行李物品进行成像,帮助安检人员识别潜在危险品。然而,传统的人工判图方式存在效率低、易疲劳、主观性强等问题,特别是在客流量大的场合,漏检风险显著增加。
近年来,随着人工智能技术的快速发展,基于深度学习的目标检测算法在多个领域展现出卓越性能。将此类技术应用于X光安检图像分析,可实现危险品的自动识别与报警,大幅提升安检效率和准确性。本研究旨在开发一种针对X光危险品检测的深度学习模型,为智能安检系统提供技术支撑。
1.2 研究现状
目前,基于深度学习的目标检测算法主要分为两类:单阶段检测算法(如YOLO系列、SSD等)和两阶段检测算法(如Faster R-CNN、Mask R-CNN等)。在X光图像检测领域,已有若干研究成果:
- Miao等[1]首次将深度学习应用于X光安检图像检测,采用Faster R-CNN算法在SIXray数据集上取得较好效果。
- 陈晓明等[2]基于SSD算法改进特征提取网络,提升了小尺寸危险品的检测能力。
- 然而,现有研究仍面临以下挑战:X光图像中物品重叠严重、小目标检测困难、类别间相似度高等问题。
2. 数据集构建与预处理
2.1 数据集概况
本研究收集并标注了8830张X光安检图像,所有图像均来自真实安检场景,涵盖了不同角度、不同摆放位置的危险品,确保了数据的多样性和代表性。数据集具体分布如下:
| 类别 | 英文名称 | 标注数量 | 占比(%) |
|---|---|---|---|
| 枪支 | Gun | 2025 | 22.9% |
| 刀具 | Knife | 1041 | 11.8% |
| 钳子 | Pliers | 1975 | 22.4% |
| 剪刀 | Scissors | 1841 | 20.8% |
| 扳手 | Wrench | 1948 | 22.1% |
| 总计 | - | 8830 | 100% |
2.2 数据标注与质量控制
数据集提供了VOC格式的XML文件和YOLO格式的TXT文件两种标注形式,便于不同算法的训练需求。标注过程中遵循以下原则:
- 完整性原则:确保每个危险品实例都被准确标注
- 精确性原则:边界框紧密贴合目标边缘
- 一致性原则:同类物品标注标准统一
2.3 数据预处理与增强
为提升模型泛化能力,采用以下数据增强策略:
- 几何变换:随机旋转(±15°)、缩放(0.8-1.2倍)、平移(±10%)
- 色彩调整:亮度、对比度、饱和度随机调整
- mosaic增强:四张图像拼接训练,提升小目标检测能力
- 添加噪声:模拟实际安检图像中的噪声干扰
数据集按7:2:1的比例划分为训练集、验证集和测试集,确保各类别在各子集中分布均衡。
3. 提出的检测方法
3.1 网络架构设计
本研究基于YOLOv5s架构进行改进,主要考虑到其在精度和速度间的良好平衡。改进后的网络结构包括:
3.1.1 主干网络(Backbone)
采用CSPDarknet53结构,通过跨阶段部分连接减少计算量同时保持梯度流。在最后两个C3模块中引入Coordinate Attention(CA)注意力机制,增强模型对危险品关键特征的提取能力。
3.1.2 特征融合网络(Neck)
采用改进的PANet结构,在自上而下和自下而上两条路径中都进行特征融合。针对危险品尺寸差异大的特点,增加了一个浅层特征输出头,专门用于检测小目标危险品如刀具等。
3.1.3 检测头(Head)
采用解耦头结构,将分类和回归任务分离,减少任务冲突。每个检测头对应不同尺度的特征图,分别负责大、中、小目标的检测。
3.2 改进的注意力机制
针对X光图像中危险品与背景对比度低、物品相互遮挡的问题,引入Coordinate Attention(CA)机制。该机制通过分解全局池化为两个一维特征编码过程,精确捕获位置信息与通道间关系:
CA(X)=σ(Conv([AvgPoolh(X),AvgPoolw(X)])) CA(X) = \sigma(Conv([AvgPool_h(X), AvgPool_w(X)])) CA(X)=σ(Conv([AvgPoolh(X),AvgPoolw(X)]))
其中,AvgPoolhAvgPool_hAvgPoolh和AvgPoolwAvgPool_wAvgPoolw分别表示高度和宽度方向的全局池化,[⋅][·][⋅]表示拼接操作,σ\sigmaσ为sigmoid激活函数。
3.3 损失函数优化
针对类别不平衡问题,采用加权交叉熵损失和CIoU损失相结合的多任务损失函数:
L=λclsLcls+λobjLobj+λboxLCIoU \mathcal{L} = \lambda_{cls}\mathcal{L}_{cls} + \lambda_{obj}\mathcal{L}_{obj} + \lambda_{box}\mathcal{L}_{CIoU} L=λclsLcls+λobjLobj+λboxLCIoU
其中,Lcls\mathcal{L}_{cls}Lcls为分类损失,采用Focal Loss缓解类别不平衡;Lobj\mathcal{L}_{obj}Lobj为物体性损失;LCIoU\mathcal{L}_{CIoU}LCIoU为边界框回归损失,考虑了重叠面积、中心点距离和长宽比。
4. 实验与结果分析
4.1 实验环境与参数设置
实验在以下环境中进行:
- 硬件:NVIDIA RTX 3090 GPU,Intel Xeon CPU
- 软件:PyTorch 1.10,CUDA 11.3,Python 3.8
- 训练参数:初始学习率0.01,batch size 16,epochs 300,使用余弦退火学习率调度
4.2 评价指标
采用目标检测领域常用评价指标:
- mAP@0.5:IoU阈值为0.5时的平均精度均值
- mAP@0.5:0.95:IoU阈值从0.5到0.95的平均精度均值
- 精确率(Precision)和召回率(Recall)
- F1-score:精确率和召回率的调和平均数
4.3 实验结果对比
将提出的改进YOLOv5模型与几种主流目标检测算法进行对比:
| 模型 | mAP@0.5 | mAP@0.5:0.95 | 精确率 | 召回率 | FPS |
|---|---|---|---|---|---|
| Faster R-CNN | 85.3% | 56.2% | 83.7% | 81.5% | 23 |
| SSD | 82.1% | 52.8% | 80.9% | 78.3% | 45 |
| YOLOv4 | 87.6% | 58.9% | 86.2% | 83.7% | 38 |
| YOLOv5s | 88.5% | 59.7% | 87.1% | 84.2% | 52 |
| Ours | 92.7% | 64.3% | 91.5% | 89.8% | 48 |
4.4 消融实验
为验证各改进模块的有效性,设计消融实验:
| 模型配置 | mAP@0.5 | 提升 |
|---|---|---|
| YOLOv5s基线 | 88.5% | - |
| + CA注意力 | 90.2% | +1.7% |
| + 改进特征融合 | 91.4% | +2.9% |
| + 损失函数优化 | 92.7% | +4.2% |
实验结果表明,各改进模块均对性能提升有贡献,其中损失函数优化带来的提升最为显著。
4.5 各类别检测结果分析
| 类别 | AP@0.5 | 检测难点 | 改进策略效果 |
|---|---|---|---|
| Gun | 95.2% | 形状多样,部分遮挡 | CA注意力有效提升遮挡情况下的检测 |
| Knife | 89.3% | 尺寸小,摆放角度多变 | 浅层特征头显著改善小目标检测 |
| Pliers | 93.1% | 与背景对比度低 | 数据增强提升模型鲁棒性 |
| Scissors | 91.8% | 结构复杂,易误检 | 改进损失函数减少误检 |
| Wrench | 94.1% | 与正常工具相似 | 注意力机制增强特征区分度 |
4.6 可视化分析
通过Grad-CAM可视化技术分析模型关注区域,发现改进后的模型能够更准确地聚焦于危险品的关键特征区域,如枪支的扳机、刀具的刀刃等,减少了背景干扰。
5. 讨论
5.1 模型优势分析
本研究提出的改进YOLOv5模型在X光危险品检测任务中表现出以下优势:
- 高精度检测:通过引入CA注意力机制和优化特征融合,有效提升了各类危险品的检测精度,特别是小目标物品。
- 强鲁棒性:针对X光图像中常见的重叠、遮挡问题,模型展现出良好的适应能力。
- 实用性强:在保持较高检测速度(48 FPS)的同时实现精度提升,满足实际应用需求。
5.2 实际应用挑战
在实际部署过程中,仍需解决以下挑战:
- 新型危险品的快速适应:当出现未见过的新型危险品时,模型需要快速更新。
- 极端情况处理:如严重重叠、极度模糊等极端情况的检测稳定性。
- 计算资源限制:在边缘设备上的部署需要考虑模型轻量化。
6. 结论与展望
6.1 研究总结
本文针对X光安检图像中的危险品检测问题,构建了一个包含8830张图像的数据集,涵盖五类常见危险品。提出了一种基于改进YOLOv5的目标检测模型,通过引入CA注意力机制、优化特征融合网络和改进损失函数,显著提升了检测性能。实验结果表明,该模型在自建数据集上的mAP@0.5达到92.7%,比基线模型提升4.2%,为智能安检系统提供了有效的技术方案。
6.2 未来工作展望
未来的研究工作将围绕以下方向展开:
- 增量学习:研究增量学习方法,使模型能够快速适应新型危险品而无需完全重新训练。
- 多模态融合:结合可见光图像与X光图像的多模态信息,提升检测可靠性。
- 轻量化设计:进一步优化模型结构,实现在移动设备上的高效部署。
- 3D检测:探索基于多视角X光图像的3D目标检测,提供更丰富的危险品信息。
2966

被折叠的 条评论
为什么被折叠?



