YOLOv13学习:基于超图增强自适应视觉感知的实时目标检测

就很快,YOLOv13它又来了。。。

Github仓库:https://github.com/iMoonLab/yolov13
论文:https://arxiv.org/pdf/2506.17733

YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception

1.模型概述和结构

1.1 推理速度和精度

  • mAP比之前YOLO系列的模型都高
    在这里插入图片描述
  • 2.论文中对比了YOLO系列各模型的速度,可以看到速度方面不如yolov8、yolo11
    在这里插入图片描述

1.2 模型结构

在这里插入图片描述

  • 1.深度可分离卷积(DSConv、DS-Bottleneck、DS-C3k、DS-C3k2)
    在这里插入图片描述

大核卷积
1.增加感受野:较大的卷积核可以一次性捕获更多的输入信息。比如,3x3卷积核只能捕获局部的信息,而5x5、7x7卷积核可以捕获更大范围的特征。
2.减少层数:使用大核卷积可以减少所需的卷积层数,因为它已经能够捕捉到更大的特征,避免了堆叠多个小核(如多个3x3卷积)的需要。

在这里插入图片描述

在这里插入图片描述

  • 2.HyperACE:基于 Hypergraph 超图增强自适应的功能
    在这里插入图片描述
    根据YOLOv13的网络结构可以看到将P3、P4、P5的特征都送到了超图增强的模块里面,再分别送出对应这三个尺度的特征,然后在不同位置都做了特征融合。

在这里插入图片描述

2.模型训练和部署

  • 1.预训练模型下载,因为当前只有一个tag,直接下载相应的预训练模型
    在这里插入图片描述
    在这里插入图片描述
  • 2.这里以yolov13n.pt为例,通过如下代码将其转为ONNX格式
from ultralytics import YOLO
model = YOLO('yolov13n.pt')  
model.export(format="onnx", half=False) 

通过网络结构可以看到,yolov13和之前的yolo11、yolov8等输入与输出一样,没有变化
在这里插入图片描述

3.总结

  • 1.在推理速度方面,yolov13比不上yolo11、yolov8等,论文显示mAP稍微高点。
  • 2.创新方面,深度可分离卷积和基于 Hypergraph 超图增强。
  • 3.官方目前只提供了对象检测相关的预训练模型,其他如分割、关键点检测等预训练模型尚未提供,工程化落地目前不太友好。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

boss-dog

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值