
YOLOv8模型改进
文章平均质量分 79
YOLOv8模型改进方法,
有趣的野鸭
记录
展开
-
YOLOv8 IoU使用
以下代码添加了SIoU=False, EIoU=False, WIoU=False, FocalIoU=False。将以下代码替换上面的代码。以下是YOLOv8自带的IoU种类,为GIoU=False, DIoU=False, CIoU=False。默认使用的是CIoU。IoU使用如下面一行,把CIoU=True改为其他的,如SIoU=True。路径:ultralytics/utils/metrics.py。所以需要把momentum变量设置为需要的版本。loss_iou计算那一行需要改掉。原创 2023-12-11 15:11:45 · 1248 阅读 · 0 评论 -
YOLOv8 C2f模块融合shuffleAttention注意力机制
yolov8添加注意力机制是一个非常常见的操作,常见的操作直接将注意力机制添加至YOLOv8的某一层之后,这种改进特别常见。知网上常见的添加注意力机制的论文均使用的上述方式。下面展示一种将注意力机制融合至模块中的方法。原创 2023-11-06 10:37:59 · 2257 阅读 · 3 评论 -
YOLOv8添加AIFI(Attention-based Intrascale Feature Interaction模块替换SPPF模块)
模块名称:Attention-based Intrascale Feature Interaction论文名称:RT-DETR: DETRs Beat Yolos on Real-time Object Detection这是论文中的图,此处将其中的AIFI模块拿过来改进YOLOv8。原创 2023-11-02 16:17:27 · 6310 阅读 · 8 评论 -
YOLOv8将注意力机制融合进入C2f模块
yolov8添加注意力机制是一个非常常见的操作,常见的操作直接将注意力机制添加至YOLOv8的某一层之后,这种改进特别常见。知网上常见的添加注意力机制的论文均使用的上述方式,同质化严重。因此,这里展示一种将注意力机制融合至模块中的方法。原创 2023-11-02 16:16:00 · 4664 阅读 · 14 评论 -
YOLOv8修改特征金字塔(替换SPPF模块)
修改特征金字塔模块,即SPPF模块是YOLOv8改进中非常常见的一个改进点。以下将介绍如何在yolov8中修改SPPF模型。原创 2023-10-30 19:48:21 · 5719 阅读 · 6 评论 -
新版yolov8添加注意力机制(以NAMAttention注意力机制为例)
之前写过yolov8如何添加注意力机制,可以看此贴但是最近yolov8的代码结构有了一些改动,因此,这里使用较新的代码重新写一篇本文以NAMAttention注意力机制为例。原创 2023-10-27 15:21:14 · 2712 阅读 · 14 评论 -
YOLOv8添加注意力机制(ShuffleAttention为例)
YOLOv8添加注意力机制(ShuffleAttention为例)原创 2023-09-05 10:52:03 · 5553 阅读 · 11 评论