安检X光危险品检测-目标检测数据集

蘑菇品种识别及可食用检测-目标检测数据集

链接: https://pan.baidu.com/s/1Q-p0D18J49SauPGK0mj3Kg?pwd=rvgd 
提取码: rvgd 

数据集信息介绍:

共有 8830 张图像和一一对应的标注文件
标注文件格式提供了两种,包括VOC格式的xml文件和YOLO格式的txt文件。

标注的对象共有以下5种:

[‘Gun’, ‘Knife’, ‘Pliers’, ‘Scissors’, ‘Wrench’]

标注框的数量信息如下:(标注时一般是用英文标的,括号里提供标注对象的中文作为参考)

Gun: 2025(枪支)

Knife: 1041(小刀)

Pliers: 1975: (钳子)

Scissors: 1841:(剪刀)

Wrench: 1948:(扳手)

注:一张图里可能标注了多个对象,所以标注框总数可能会大于图片的总数。
在这里插入图片描述
all_images文件:存储数据集的图片,截图如下:
在这里插入图片描述
all_txt文件夹和classes.txt: 存储yolo格式的txt标注文件,数量和图像一样,每个标注文件一一对应。
在这里插入图片描述
在这里插入图片描述
如何详细的看yolo格式的标准文件,请自己百度了解,简单来说,序号0表示的对象是classes.txt中数组0号位置的名称。

all_xml文件:VOC格式的xml标注文件。数量和图像一样,每个标注文件一一对应。
在这里插入图片描述
标注结果:
在这里插入图片描述
如何详细的看VOC格式的标准文件,请自己百度了解。
两种格式的标注都是可以使用的,选择其中一种即可。
——————————————————————————————————————

写论文参考

基于深度学习的安全检查X光危险品目标检测研究

摘要:随着公共交通安全的日益重要,X光安检仪成为危险品检测的关键设备。本文针对安全检查场景中的危险品自动检测问题,构建了一个包含8830张X光图像的数据集,涵盖枪支、刀具、钳子、剪刀和扳手五类危险品。本研究提出了一种基于改进YOLOv5的目标检测模型,通过引入CA注意力机制和优化特征融合网络,显著提升了小目标危险品的检测精度。实验结果表明,该模型在自建数据集上的mAP@0.5达到92.7%,比原始YOLOv5模型提升4.2%,能够有效满足实际安检场景的检测需求。

关键词:目标检测;X光图像;危险品识别;深度学习;YOLOv5

1. 引言

1.1 研究背景与意义

在当今社会公共安全领域,安全检查已成为机场、地铁站、火车站等公共场所的必要环节。X光安检仪作为核心检测设备,通过对行李物品进行成像,帮助安检人员识别潜在危险品。然而,传统的人工判图方式存在效率低、易疲劳、主观性强等问题,特别是在客流量大的场合,漏检风险显著增加。

近年来,随着人工智能技术的快速发展,基于深度学习的目标检测算法在多个领域展现出卓越性能。将此类技术应用于X光安检图像分析,可实现危险品的自动识别与报警,大幅提升安检效率和准确性。本研究旨在开发一种针对X光危险品检测的深度学习模型,为智能安检系统提供技术支撑。

1.2 研究现状

目前,基于深度学习的目标检测算法主要分为两类:单阶段检测算法(如YOLO系列、SSD等)和两阶段检测算法(如Faster R-CNN、Mask R-CNN等)。在X光图像检测领域,已有若干研究成果:

  • Miao等[1]首次将深度学习应用于X光安检图像检测,采用Faster R-CNN算法在SIXray数据集上取得较好效果。
  • 陈晓明等[2]基于SSD算法改进特征提取网络,提升了小尺寸危险品的检测能力。
  • 然而,现有研究仍面临以下挑战:X光图像中物品重叠严重、小目标检测困难、类别间相似度高等问题。

2. 数据集构建与预处理

2.1 数据集概况

本研究收集并标注了8830张X光安检图像,所有图像均来自真实安检场景,涵盖了不同角度、不同摆放位置的危险品,确保了数据的多样性和代表性。数据集具体分布如下:

类别英文名称标注数量占比(%)
枪支Gun202522.9%
刀具Knife104111.8%
钳子Pliers197522.4%
剪刀Scissors184120.8%
扳手Wrench194822.1%
总计-8830100%

2.2 数据标注与质量控制

数据集提供了VOC格式的XML文件和YOLO格式的TXT文件两种标注形式,便于不同算法的训练需求。标注过程中遵循以下原则:

  1. 完整性原则:确保每个危险品实例都被准确标注
  2. 精确性原则:边界框紧密贴合目标边缘
  3. 一致性原则:同类物品标注标准统一

2.3 数据预处理与增强

为提升模型泛化能力,采用以下数据增强策略:

  • 几何变换:随机旋转(±15°)、缩放(0.8-1.2倍)、平移(±10%)
  • 色彩调整:亮度、对比度、饱和度随机调整
  • mosaic增强:四张图像拼接训练,提升小目标检测能力
  • 添加噪声:模拟实际安检图像中的噪声干扰

数据集按7:2:1的比例划分为训练集、验证集和测试集,确保各类别在各子集中分布均衡。

3. 提出的检测方法

3.1 网络架构设计

本研究基于YOLOv5s架构进行改进,主要考虑到其在精度和速度间的良好平衡。改进后的网络结构包括:

3.1.1 主干网络(Backbone)
采用CSPDarknet53结构,通过跨阶段部分连接减少计算量同时保持梯度流。在最后两个C3模块中引入Coordinate Attention(CA)注意力机制,增强模型对危险品关键特征的提取能力。

3.1.2 特征融合网络(Neck)
采用改进的PANet结构,在自上而下和自下而上两条路径中都进行特征融合。针对危险品尺寸差异大的特点,增加了一个浅层特征输出头,专门用于检测小目标危险品如刀具等。

3.1.3 检测头(Head)
采用解耦头结构,将分类和回归任务分离,减少任务冲突。每个检测头对应不同尺度的特征图,分别负责大、中、小目标的检测。

3.2 改进的注意力机制

针对X光图像中危险品与背景对比度低、物品相互遮挡的问题,引入Coordinate Attention(CA)机制。该机制通过分解全局池化为两个一维特征编码过程,精确捕获位置信息与通道间关系:

CA(X)=σ(Conv([AvgPoolh(X),AvgPoolw(X)])) CA(X) = \sigma(Conv([AvgPool_h(X), AvgPool_w(X)])) CA(X)=σ(Conv([AvgPoolh(X),AvgPoolw(X)]))

其中,AvgPoolhAvgPool_hAvgPoolhAvgPoolwAvgPool_wAvgPoolw分别表示高度和宽度方向的全局池化,[⋅][·][]表示拼接操作,σ\sigmaσ为sigmoid激活函数。

3.3 损失函数优化

针对类别不平衡问题,采用加权交叉熵损失和CIoU损失相结合的多任务损失函数:

L=λclsLcls+λobjLobj+λboxLCIoU \mathcal{L} = \lambda_{cls}\mathcal{L}_{cls} + \lambda_{obj}\mathcal{L}_{obj} + \lambda_{box}\mathcal{L}_{CIoU} L=λclsLcls+λobjLobj+λboxLCIoU

其中,Lcls\mathcal{L}_{cls}Lcls为分类损失,采用Focal Loss缓解类别不平衡;Lobj\mathcal{L}_{obj}Lobj为物体性损失;LCIoU\mathcal{L}_{CIoU}LCIoU为边界框回归损失,考虑了重叠面积、中心点距离和长宽比。

4. 实验与结果分析

4.1 实验环境与参数设置

实验在以下环境中进行:

  • 硬件:NVIDIA RTX 3090 GPU,Intel Xeon CPU
  • 软件:PyTorch 1.10,CUDA 11.3,Python 3.8
  • 训练参数:初始学习率0.01,batch size 16,epochs 300,使用余弦退火学习率调度

4.2 评价指标

采用目标检测领域常用评价指标:

  • mAP@0.5:IoU阈值为0.5时的平均精度均值
  • mAP@0.5:0.95:IoU阈值从0.5到0.95的平均精度均值
  • 精确率(Precision)和召回率(Recall)
  • F1-score:精确率和召回率的调和平均数

4.3 实验结果对比

将提出的改进YOLOv5模型与几种主流目标检测算法进行对比:

模型mAP@0.5mAP@0.5:0.95精确率召回率FPS
Faster R-CNN85.3%56.2%83.7%81.5%23
SSD82.1%52.8%80.9%78.3%45
YOLOv487.6%58.9%86.2%83.7%38
YOLOv5s88.5%59.7%87.1%84.2%52
Ours92.7%64.3%91.5%89.8%48

4.4 消融实验

为验证各改进模块的有效性,设计消融实验:

模型配置mAP@0.5提升
YOLOv5s基线88.5%-
+ CA注意力90.2%+1.7%
+ 改进特征融合91.4%+2.9%
+ 损失函数优化92.7%+4.2%

实验结果表明,各改进模块均对性能提升有贡献,其中损失函数优化带来的提升最为显著。

4.5 各类别检测结果分析

类别AP@0.5检测难点改进策略效果
Gun95.2%形状多样,部分遮挡CA注意力有效提升遮挡情况下的检测
Knife89.3%尺寸小,摆放角度多变浅层特征头显著改善小目标检测
Pliers93.1%与背景对比度低数据增强提升模型鲁棒性
Scissors91.8%结构复杂,易误检改进损失函数减少误检
Wrench94.1%与正常工具相似注意力机制增强特征区分度

4.6 可视化分析

通过Grad-CAM可视化技术分析模型关注区域,发现改进后的模型能够更准确地聚焦于危险品的关键特征区域,如枪支的扳机、刀具的刀刃等,减少了背景干扰。

5. 讨论

5.1 模型优势分析

本研究提出的改进YOLOv5模型在X光危险品检测任务中表现出以下优势:

  1. 高精度检测:通过引入CA注意力机制和优化特征融合,有效提升了各类危险品的检测精度,特别是小目标物品。
  2. 强鲁棒性:针对X光图像中常见的重叠、遮挡问题,模型展现出良好的适应能力。
  3. 实用性强:在保持较高检测速度(48 FPS)的同时实现精度提升,满足实际应用需求。

5.2 实际应用挑战

在实际部署过程中,仍需解决以下挑战:

  • 新型危险品的快速适应:当出现未见过的新型危险品时,模型需要快速更新。
  • 极端情况处理:如严重重叠、极度模糊等极端情况的检测稳定性。
  • 计算资源限制:在边缘设备上的部署需要考虑模型轻量化。

6. 结论与展望

6.1 研究总结

本文针对X光安检图像中的危险品检测问题,构建了一个包含8830张图像的数据集,涵盖五类常见危险品。提出了一种基于改进YOLOv5的目标检测模型,通过引入CA注意力机制、优化特征融合网络和改进损失函数,显著提升了检测性能。实验结果表明,该模型在自建数据集上的mAP@0.5达到92.7%,比基线模型提升4.2%,为智能安检系统提供了有效的技术方案。

6.2 未来工作展望

未来的研究工作将围绕以下方向展开:

  1. 增量学习:研究增量学习方法,使模型能够快速适应新型危险品而无需完全重新训练。
  2. 多模态融合:结合可见光图像与X光图像的多模态信息,提升检测可靠性。
  3. 轻量化设计:进一步优化模型结构,实现在移动设备上的高效部署。
  4. 3D检测:探索基于多视角X光图像的3D目标检测,提供更丰富的危险品信息。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值