
YOLOv8有效涨点专栏

文章平均质量分 93
欢迎大家订阅专栏,将会更新100+内容,包含注意力机制,卷积模块,损失函数,检测头等。
优惠券已抵扣
余额抵扣
还需支付
¥59.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
小李学AI
人工智能在读博士,希望我的文章能对大家有所帮助!
展开
-
YOLOv8改进 | Conv篇 | YOLOv8引入SCConv模块
在本文中,我们尝试利用特征之间的空间和通道冗余进行 CNN 压缩,并提出一种高效的卷积模块,称为 SCConv(空间和通道重建卷积),以减少冗余计算并促进代表性特征学习。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~添加完SCConv代码后,在ultralytics/nn/Extramodule/__init__.py文件中引用。原创 2024-08-30 16:15:11 · 1742 阅读 · 4 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入CBAM注意力机制
我们的实验表明各种模型的分类和检测性能得到了一致的改进,证明了 CBAM 的广泛适用性。模块首先应用通道注意力,关注"重要的"特征,然后应用空间注意力,关注这些特征的"重要位置"。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~添加完CBAM代码后,在ultralytics/nn/Extramodule/__init__.py文件中引用。原创 2024-08-30 01:57:46 · 3158 阅读 · 2 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入CA注意力机制
摘要:最近关于移动网络设计的研究已经证明了通道注意力(例如,挤压和激励注意力)对于提升模型性能的显着有效性,但它们通常忽略了位置信息,而位置信息对于生成空间选择性注意力图很重要。在本文中,我们通过将位置信息嵌入到通道注意力中,提出了一种新颖的移动网络注意力机制,我们称之为“协调注意力”。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-29 23:25:17 · 1731 阅读 · 0 评论 -
YOLOv8改进 | 检测头篇 | YOLOv8引入DynamicHead检测头
以往的工作试图提高各种目标检测头的性能,但未能呈现出统一的观点。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~尺度感知注意力模块:该模块仅部署在特征维度的水平方向上,学习不同语义层的重要性,以增强适合单个对象的特定尺度的特征。任务感知:不同的对象表示形式(例如边界框、中心点和关键点)有不同的目标和约束,检测头需要能够处理这些不同的任务。原创 2024-09-08 14:05:26 · 2246 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入MLCA注意力机制
为了在性能和复杂度之间取得平衡,该文提出一种轻量级的混合局部信道注意力(MLCA)模块来提高目标检测网络的性能,该模块可以同时结合信道信息和空间信息,以及局部信息和全局信息,以提高网络的表达效果。该模块能够同时结合通道信息和空间信息,以及局部信息和全局信息,以提高网络的表达能力。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-08 13:10:55 · 594 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 | YOLOv8引入DWR
在该方法中,多速率深度扩张卷积在特征提取中发挥更简单的作用:基于第一步提供的每个简明区域形式特征图,在第二步中使用一个期望的感受野执行简单的基于语义的形态过滤 ,以提高他们的效率。此外,详细阐述了每个网络阶段的扩张率和扩张卷积的容量,以充分利用可以实现的所有区域形式的特征图。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-07 21:30:43 · 442 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入可变形大核注意力(D-LKA Attention)
具体而言,D-LKA Attention模块包括以下几个关键组成部分:首先,使用深度可分离卷积来构建大卷积核,并通过深度可变形卷积来动态调整采样网格,使得模型能够适应不同的数据模式。此外,D-LKA模块还包括一个动态生成的偏移场,该偏移场基于特征图自身学习而来,创建了一个可变形的采样网格。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-07 21:22:50 · 499 阅读 · 0 评论 -
YOLOv8改进 | Neck篇 | YOLOv8引入Gold-YOLO
这种新设计的模型被命名为Gold-YOLO,它增强了多尺度特征融合能力,并在所有模型尺度上实现了延迟和准确性之间的理想平衡。此外,为了进一步促进跨层信息的流动,Gold-YOLO还引入了一个轻量级的相邻层融合模块(LAF),该模块通过简化的操作有效地平衡了模型的速度和准确性。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-06 15:24:56 · 621 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 |YOLOv8引入RepGhost(轻量级)
这种通过结构重参数化实现的特征重用策略为轻量级CNNs的设计提供了一种新的视角,有助于推动更高效的移动和便携式设备的深度学习应用。RepGhost模块是一个通过结构重参数化技术实现隐式特征重用的硬件高效的模块,它旨在替代在轻量级卷积神经网络(CNNs)设计中常用的连接操作,以提升计算效率。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-06 14:29:10 · 418 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入MSCAAttention(MSCA)注意力机制
每个分支使用两个近似于标准深度卷积的大核深度卷积分支,分别设置不同的核尺寸(7×7、11×11和21×21),这样的设计有助于提取多种尺度的特征。此外,通过采用深度卷积分支和strip convolution的结合,该模块在保持计算效率的同时提供了强大的特征提取能力。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-05 13:57:35 · 626 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入iRMB
在 ImageNet-1K、COCO2017 和 ADE20K 基准上进行的大量实验证明了我们的 EMO 相对于最先进方法的优越性,例如,EMO-1M/2M/5M 达到了 71.5、75.1 和 78.4 Top-1,超越了同等水平的 Top-1。这种组合方式有效地提高了模型的效率和性能。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-04 23:49:11 · 321 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 | YOLOv8引入24年最新卷积模块LDConv(轻量)
针对上述问题,本文提出了一种线性可变形卷积算法(LDConv),该算法为卷积核提供了任意数目的参数和任意的采样形状,从而为网络开销和性能之间的权衡提供了更丰富的选择。综上LDConv模块通过其独特的设计和创新点,克服了传统卷积操作和Deformable Conv的局限性,实现了更高效、灵活的特征提取能力,为提升卷积神经网络的性能提供了新的可能性。线性增长的参数数量:LDConv通过生成不同初始采样位置的卷积核,使卷积参数的数量呈现线性增长趋势,从而更好地适应目标形状的变化。原创 2024-09-04 12:42:49 · 1285 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入EMAttention(EMA)注意力
具体来说,除了对全局信息进行编码以重新校准每个并行分支中的通道权重之外,还通过跨维度交互来进一步聚合两个并行分支的输出特征,以捕获像素级的成对关系。3. 跨空间学习:除了在每个并行子网络中建立局部的跨通道交互外,EMA模块还通过跨空间学习方法融合了两个并行子网络的输出特征图。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-03 21:55:08 · 594 阅读 · 0 评论 -
YOLOv8改进 | 主干篇 | YOLOv8引入华为VanillaNet替换Backbone
VanillaNet 的这一富有远见的旅程具有重新定义景观并挑战基础模型现状的巨大潜力,为优雅而有效的模型设计开辟了一条新道路。此外,为了增强网络的非线性特性,VanillaNet还提出了一种有效的基于序列的激活函数,该函数结合了多个可学习的仿射变换。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~1.3 VanillaNet模块结构图。原创 2024-09-03 21:46:14 · 460 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 |YOLOv8引入Diverse Branch Block(DBB)卷积(助力涨点)
与Inception单元不同,DBB是一个可以在多种架构中使用的构建块,并且每个DBB分支都可以转换为一个卷积,使得这些分支的组合可以合并为一个单一的卷积,这比实际的Inception单元要快得多。这样,模型可以在训练中达到更高的性能水平,然后转换回原始的推理时结构用于推理。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-02 21:53:53 · 370 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入HAttention(HAT)注意力
在训练阶段,我们还采用了相同任务的预训练策略,以挖掘模型进一步改进的潜力。Hybrid Attention Transformer (HAT) 模块是一个结合了通道注意力和基于窗口的自注意力方案的模型,它利用这两种机制的互补优势来激活更多的输入像素以进行更好的图像重建。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-02 21:33:05 · 881 阅读 · 0 评论 -
YOLOv8改进 | 主干篇 | YOLOv8引入FasterNeT替换Backbone
为了实现更快的网络,我们重新审视流行的算子,并证明如此低的 FLOPS 主要是由于算子的频繁内存访问,尤其是深度卷积。在我们的 PConv 的基础上,我们进一步提出了 FasterNet,这是一个新的神经网络系列,它在各种设备上比其他网络获得更高的运行速度,而不会影响各种视觉任务的准确性。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-02 21:23:31 · 541 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入MSDA多尺度空洞注意力
我们的 DilateFormer-Base 在 ImageNet-1K 分类任务上实现了 85.6% 的 top-1 准确率,在 COCO 对象检测/实例分割任务上实现了 53.5% 的框 mAP/46.1% 的掩模 mAP,在 ADE20K 语义分割任务上实现了 51.1% 的 MS mIoU。MSDA利用不同的膨胀率(dilation rates)为不同的头部设置不同的尺度,这使得该模块能够在保持特征图分辨率的同时增加感受野,并有效减少自注意力机制中的冗余。大家根据自己的数据集实际情况,修改nc大小。原创 2024-09-01 15:42:32 · 298 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入Polarized Self-Attention注意力机制
在本文中,我们提出了偏振自注意力(PSA)模块,它结合了高质量像素级回归的两个关键设计:(1)偏振过滤:在通道和空间注意力计算中保持高内部分辨率,同时完全折叠输入张量 它们的对应尺寸。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~极化滤波:PSA在通道和空间注意力计算中保持高内部分辨率,同时沿着其对应的维度完全折叠输入张量。原创 2024-09-01 15:31:46 · 375 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 |YOLOv8引入ODConv卷积(助力涨点)
相反,最近动态卷积的研究表明,学习 n 个卷积核的线性组合及其输入相关注意力的加权可以显着提高轻量级 CNN 的准确性,同时保持高效的推理。有趣的是,由于其改进的特征学习能力,即使只有一个内核的 ODConv 也可以与现有的具有多个内核的动态卷积对应物竞争或超越,从而大大减少了额外的参数。与传统的动态卷积方法不同,如CondConv和DyConv,这些方法通常仅在输入特征的基础上学习一个维度的注意力,ODConv则通过其多维注意力机制,同时在卷积核空间的所有四个维度上并行地学习互补的注意力。原创 2024-09-01 15:19:56 · 603 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 | YOLOv8引入SAConv模块
在微观层面,我们提出了可切换空洞卷积,它将具有不同空洞率的特征进行卷积,并使用开关函数收集结果。在 COCO test-dev 上,DetectoRS 在目标检测方面实现了最先进的 55.7% 框 AP,在实例分割方面实现了 48.5% 的掩模 AP,在全景分割方面实现了 50.0% PQ。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-01 15:10:24 · 565 阅读 · 0 评论 -
YOLOv8改进 | Conv篇 |YOLOv8引入动态蛇形卷积(Dynamic Snake Convolution)
在DSConv中,将标准的卷积分核进行拉直处理,考虑一个9×9的卷积分核,以x轴方向为例,分核中每个网格的具体位置表示为Ki±c = (xi±c , yi±c),其中c代表水平距离从中心网格起的变化范围。此外,DSConv的设计使得网络能够更好地适应细长的管状结构,从而更有效地感知关键特征。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-01 14:59:51 · 703 阅读 · 0 评论 -
YOLOv8改进 | 主干篇 | YOLOv8引入MobileNetV4
在其核心,我们引入了通用倒瓶颈(UIB)搜索块,这是一种统一且灵活的结构,融合了倒瓶颈(IB)、ConvNext、前馈网络(FFN)和新颖的额外深度(ExtraDW)变体。Mobile MQA是MNv4的另一个关键组件,这是一个为移动加速器量身定制的注意力块,提供了超过39%的推理加速。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-31 22:17:12 · 1557 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入ACmix注意力机制
在本文中,我们表明它们之间存在很强的潜在关系,从某种意义上说,这两种范式的大量计算实际上是通过相同的操作完成的。这种观察自然地导致了这两个看似不同的范式的优雅整合,即一个混合模型,它既享受自注意力和卷积(ACmix)的好处,同时与纯卷积或自注意力对应物相比具有最小的计算开销。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-31 21:44:31 · 425 阅读 · 0 评论 -
YOLOv8改进 | 主干篇 | YOLOv8引入EfficientViT替换Backbone
与之前的高分辨率密集预测模型依赖于大量的softmax注意力、硬件效率低下的大内核卷积或复杂的拓扑结构来获得良好的性能不同,我们的多尺度线性注意力实现了全局感受野和多尺度学习(两个 高分辨率密集预测的理想功能)仅具有轻量级和硬件高效的操作。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~大家根据自己的数据集实际情况,修改nc大小。原创 2024-08-31 21:33:25 · 721 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入SimAM注意力机制
该模块的另一个优点是,大多数算子是根据定义的能量函数的解来选择的,避免了过多的结构调整工作。对各种视觉任务的定量评估表明,所提出的模块灵活有效,可以提高许多ConvNet的表示能力。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~(4)基于解的操作符选择:SimAM中的大多数操作符都是基于能量函数的解来选择的,这避免了过多的结构调优工作。原创 2024-08-30 20:36:20 · 844 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入LSK注意力机制
这种先验知识可能很有用,因为在没有参考足够远距离上下文的情况下,可能会错误地检测微小的遥感物体,并且不同类型物体所需的远距离上下文可能会有所不同。与传统的卷积操作相比,大尺度卷积核能够覆盖更大的感受野,从而捕捉到更丰富的上下文信息。然而,大尺度卷积核也带来了计算成本的增加和可能的过拟合问题。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-30 17:00:04 · 517 阅读 · 0 评论 -
YOLOv8改进 | 损失函数篇 | YOLOv8引入EfficiCLoss损失函数(有效提点)
尽管CIoU已经取得了显著的成果,但仍有进一步优化的空间,为未来的研究提供了丰富的可能性和挑战。为了克服这一限制,研究者们引入了EIOU_Loss损失函数,该函数在CIOU_Loss的基础上进行了改进,将纵横比影响因子进行了拆分,从而能够更准确地计算预测框与真实框的长宽差异。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-30 16:46:25 · 618 阅读 · 0 评论 -
YOLOv8改进 | Neck篇 | YOLOv8引入Slim-Neck(超轻量)
在标准的CNN架构中,随着网络深度的增加,空间信息逐步转化为通道信息,这一转换过程在每次特征图的空间压缩和通道扩展操作中往往伴随着语义信息的部分损失。GSConv通过其独特的设计,旨在在维持较低时间复杂度的同时,最大化地保留通道之间的潜在连接,从而减少信息的丢失。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-30 16:32:16 · 1254 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入ECA注意力机制
为了克服性能和复杂性权衡的悖论,本文提出了一种高效通道注意(ECA)模块,该模块仅涉及少量参数,同时带来了明显的性能增益。在ResNets和MobileNetV2等主流神经网络结构中,ECA模块以极少的参数和计算资源,显著提升了模型的性能,相比其他注意力模块展现出更高的效率和优越性。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-08-30 01:43:43 · 625 阅读 · 0 评论 -
YOLOv8改进 | 注意力篇 | YOLOv8引入GAM注意力机制
到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv8改进有效涨点专栏,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~官方代码地址:https://github.com/dengbuqi/GAM_Pytorch/blob/main/CAM.py。添加完GAM代码后,在ultralytics/nn/Extramodule/__init__.py文件中引用。在GAM.py文件里添加给出的GAM代码。原创 2024-08-29 23:12:10 · 974 阅读 · 0 评论