
YOLOv11有效涨点专栏

文章平均质量分 92
YOLOv11专栏持续复现网络上各种顶会内容,欢迎大家订阅!!!
优惠券已抵扣
余额抵扣
还需支付
¥69.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
小李学AI
人工智能在读博士,希望我的文章能对大家有所帮助!
展开
-
适合0基础的超级详细YOLO11的GPU环境配置与运行(适用于YOLOv8)
到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~在我们的电脑里配置Anaconda,此电脑(我的电脑)--->属性。在我们的电脑里配置pycharm,此电脑(我的电脑)--->属性。修改datasets里data.yaml的路径:(绝对路径)(怎么看自己电脑有没有显卡:右键此电脑(我的电脑)--->管理。原创 2024-11-21 22:08:12 · 5410 阅读 · 17 评论 -
YOLOv11改进 | Conv篇 | YOLOv11引入AKConv(轻量)
很明显,不同数据集和不同位置的目标的形状和大小是不同的。针对上述问题,本工作探索了可改变核卷积(AKConv),它赋予卷积核任意数量的参数和任意采样形状,为网络开销和性能之间的权衡提供更丰富的选择。简单介绍:本文给大家带来的改进内容是AKConv是一种创新的变核卷积,它旨在解决标准卷积操作么中的固有缺陷(采样形状是固定的),AKConv的核心思想在于它为卷积核提供了任意数量的参数和任意采样形状,能够使用任意数量的参数(如1,2,3,4,5,6,7等)来提取特征,这在标准卷积和可变形卷积中并未实现。原创 2024-09-30 20:47:21 · 7928 阅读 · 22 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入CBAM注意力机制
我们的实验表明各种模型的分类和检测性能得到了一致的改进,证明了 CBAM 的广泛适用性。简单介绍:CBAM的主要思想是通过关注重要的特征并抑制不必要的特征来增强网络的表示能力。模块首先应用通道注意力,关注"重要的"特征,然后应用空间注意力,关注这些特征的"重要位置"。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-09-30 10:08:01 · 7309 阅读 · 20 评论 -
手把手教你使用YOLOv11训练自己数据集(含环境搭建 、数据集查找、模型训练)
一、前言本文内含YOLOv11网络结构图 + 训练教程 + 推理教程 + 数据集获取等有关YOLOv10的内容!官方代码地址:https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/11三、环境搭建 项目环境如下: 解释器:Python:3.9.19 框 架:Pytorch:2.0.1 系 统:Win10 IDEA原创 2024-09-30 09:51:34 · 33767 阅读 · 57 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年轻量级坐标注意力【Lightweight Coordinate Attention (LCA)】,并构建C2PSA_LCA
1.LCA介绍1.1 摘要:装备有热红外(TIR)相机的无人机(UAV)在打击夜间野生动物偷猎中发挥着至关重要的作用。然而,TIR图像经常面临抖动和野生动物重叠等挑战,这就要求无人机具备识别模糊和重叠小目标的能力。当前部署在无人机上的传统轻量级网络难以从模糊小目标中提取特征。为了解决这一问题,我们开发了ALSS-YOLO,这是一款针对TIR航拍图像优化的高效轻量探测器。“为此,本文提出了一种新的自适应轻量级信道分离与混洗模块。原创 2025-01-11 20:06:40 · 520 阅读 · 0 评论 -
YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入跨层级通道注意力[CLCA (Cross-Level Channel Attention)],并构建C2PSA_CLCA(独家创新)
CLCA(Cross-Level Channel Attention)模块是跨层级的通道注意力机制,旨在通过对不同层次的特征进行加权,提升模型对多尺度信息的学习能力。原创 2025-01-08 20:09:52 · 850 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年空间和通道协同注意模块(SCSA),并构建C2PSA_SCSA
1.SCSA介绍1.1 摘要:通道关注和空间关注分别为各种下游视觉任务的特征依赖和空间结构关系提取带来了显著的改进。通道和空间注意力的结合使用被广泛认为有利于进一步提高性能,然而,通道和空间注意力之间的协同效应,特别是在空间指导和减轻语义差异方面,尚未得到深入研究。这促使我们提出了一个新的空间和通道协同注意模块(SCSA),需要我们的调查在多个语义层次上的空间和通道的注意力之间的协同关系。我们的SCSA由两部分组成:可共享多语义空间注意力(SMSA)和渐进通道自我注意力(PCSA)。原创 2025-01-06 18:43:32 · 999 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年ECCV的自调制特征聚合注意力模块(SMFA),并构建C2PSA_SMFA
1.SMFA介绍1.1 摘要:基于Transformer的图像复原方法由于Transformer的自注意(self-attention,SA)特性能够更好地挖掘非局部信息,从而获得更好的高分辨率图像重建效果,因此具有重要的应用价值。然而,关键点积SA需要大量的计算资源,这限制了其在低功耗器件中的应用。此外,模拟退火机制的低通特性限制了其捕获局部细节的能力,从而导致平滑的重建结果。原创 2025-01-05 20:13:37 · 373 阅读 · 4 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年动态卷积块注意力(Dynamic-CBAM),并构建C2PSA_DynamicCBAM
1.Dynamic-CBAM介绍1.1 摘要:重度抑郁症是一种普遍而严重的心理健康状况,对您的情绪,思想,行动和对世界的整体感知产生负面影响。由于抑郁症的症状不明显,确定一个人是否抑郁是很复杂的。然而,他们的声音可能是我们可以识别抑郁症迹象的因素之一。抑郁的人会表现出不适、悲伤,他们可能说话缓慢、颤抖,声音中失去情感。在这项研究中,我们提出了动态卷积块注意力模块(DynamicCBAM),用于在注意力-GRU网络中通过分析人类的音频信号来分类情感。原创 2025-01-05 19:24:18 · 429 阅读 · 0 评论 -
YOLOv11改进 | Conv篇 | YOLOv11引入24年大感受野的小波卷积WTConv
1. WTConv介绍1.1 摘要:近年来,人们试图通过增加卷积神经网络(ConvolutionalNeuralNets,CNNs)的核尺寸来模拟视觉变换器(VisionTransformers,ViTs)的自我注意块的全局感受域。然而,这种方法很快就达到了一个上限和饱和的方式之前,实现了一个全球的接受领域。在这项工作中,我们证明,通过利用小波变换(WT),它是,事实上,有可能获得非常大的感受野,而不遭受过度参数化,例如,对于k × k的感受野,所提出的方法中的可训练参数的数目仅随k的对数增长。原创 2025-01-03 20:45:30 · 935 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年Single-HeadSelf-Attention(SHSAttention)注意力机制,并构建C2PSA_SHSAttention
1.SHSAttention介绍1.1 摘要:最近,高效的Vision Transformer在资源受限的设备上表现出出色的性能和低延迟。传统上,它们在宏观层面使用4×4贴片嵌入和4级结构,而在微观层面使用具有多头配置的复杂注意力。本文的目的是解决计算冗余在所有的设计水平,在内存效率的方式。我们发现,使用更大步幅的补丁主干不仅可以降低内存访问成本,而且还可以通过利用从早期阶段就减少空间冗余的令牌表示来实现有竞争力的性能。原创 2025-01-02 21:27:57 · 456 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年Local Importance-based Attention(LIA)注意力机制,并构建C2PSA_LIA
1.LIA介绍1.1 摘要:降低延迟是近年来超分辨率(SR)研究的一个大趋势。尽管最近的进展利用了各种卷积块、注意模块和主干来释放卷积神经网络(ConvNet)的全部潜力,但实现实时性能仍然是一个挑战。为此,我们提出了PlainUSR,一个新的框架,它结合了三个相关的修改来加速ConvNet以实现高效的SR。对于卷积块,我们通过重新参数化技巧将较轻但较慢的MobileNetv 3块压缩为较重但较快的香草卷积块,以平衡存储器访问和计算。原创 2025-01-01 20:13:23 · 240 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年Fine-Grained Channel Attention(FCAttention)注意力机制,并构建C2PSA_FCAttention
1.FCAttention介绍1.1 摘要:近年来,无监督算法在图像去雾方面取得了显著的效果。然而,CycleGAN框架会因数据分布不一致而导致生成器学习混乱,而DisentGAN框架对生成的图像缺乏有效约束,导致图像内容细节丢失和颜色失真。此外,Squeeze和Excitation通道仅利用完全连通的层来获取全局信息,缺乏与局部信息的交互,导致用于图像去雾的特征权重分配不准确。针对上述问题,本文提出了一种无监督双向对比重构自适应细粒度信道注意力网络(UBRFCNet)。原创 2024-12-31 22:21:08 · 406 阅读 · 0 评论 -
YOLOv11改进 | 检测头篇 | YOLOv11引入四头检测头
【代码】YOLOv11改进 | 检测头篇 | YOLOv11引入四头检测头。原创 2024-12-10 10:41:12 · 587 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年最新的上下文锚注意力机制(CAA),并构建C2PSA_CAA(适用于小目标检测)
此外,通过采用深度可分离卷积(depth-wise strip convolutions),CAA模块在保持计算效率的同时,实现了与较大卷积核类似的效果,这对于遥感图像检测任务中的实时性和准确性要求尤为重要。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~在CAA.py文件里添加给出的CAA代码。原创 2024-10-14 19:01:41 · 1159 阅读 · 2 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入SpatialGroupEnhance注意力机制
然而,这些子特征的激活通常在空间上受到相似模式和噪声背景的影响,从而导致错误的定位和识别。SGE 是一种轻量级的空间注意力增强模块,旨在通过为每个语义组的每个空间位置生成关注因子来调整每个子特征的重要性,从而使每个独立组能够自主地增强其学到的表达并抑制潜在的噪声。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-14 18:33:59 · 363 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年最新的ELA注意力机制,并构建C2PSA_ELA
为了解决这些限制,本文介绍了一种高效的本地注意力(ELA)方法,实现了一个简单的结构,大幅度的性能改善。我们精心设计了ELA中的三个超参数,产生了四个不同的版本:ELA-T,ELAB,ELA-S和ELA-L,以满足不同视觉任务的具体要求,如图像分类,目标检测和语义分割。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-14 18:11:44 · 767 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入NAMAttention并构建C2PSA_NAMAttention
NAM模块的设计使得其在参数数量和计算效率方面都得到了显著提升,尤其是在通道注意力模块中参数数量大幅减少,而在空间注意力模块中参数略有增加,总体而言,NAM的参数少于CBAM。本文提出了一种新的基于归一化的注意力模型(NAM),该模型可以抑制不显著的权重。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-14 18:00:40 · 281 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入引入YOLO-Face提出的SEAM注意力机制优化物体遮挡检测并构建C2PSA_SEAM
WiderFace 数据集上的实验结果表明,我们的人脸检测器优于 YOLO,并且它的变体可以在所有简单、中等和困难子集中找到。因此,为了弥补这一点,不同深度的卷积输出会通过点对点的(1x1)卷积进行组合,以恢复通道间的信息交流。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~在SEAM.py文件里添加给出的SEAM代码。原创 2024-10-14 17:45:58 · 658 阅读 · 0 评论 -
YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入结合PolarizedSelfAttention和ECA形成全新的EPSA注意力机制(全网独家创新)
EPSA模块通过整合ECA和PolarizedSelfAttention,不仅保留了ECA模块在通道注意力方面的优势,还结合了PolarizedSelfAttention在空间特征提取方面的能力,从而实现了更为丰富的特征表示。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~(2). 计算效率与性能的平衡。原创 2024-10-09 22:12:03 · 602 阅读 · 1 评论 -
YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入ECA和Softmax Attention结合之SECA注意力(全网独家创新)
到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~总体来说,SECA通过结合ECA和Softmax Attention的优势,使得模型能够在保留图像全局信息的同时,更加精确地关注和利用图像中不同区域的重要特征,进一步提升了图像特征提取任务的性能。在SECA.py文件里添加给出的SECA代码。3.3 在tasks.py里引用。原创 2024-10-09 22:03:41 · 367 阅读 · 0 评论 -
YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入GAM和LinearAttention结合之LGAM注意力(全网独家创新)
到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~GAM的通道注意力机制相对简单,仅通过一层全连接网络进行特征变换,特征交互的深度和广度有限。综上所述,LGAM通过引入线性注意力机制、增强通道间的交互深度以及结合通道和空间注意力,实现了更高效、更强大和更全面的特征提取能力,在图像处理任务中表现优于传统的GAM注意力机制。原创 2024-10-08 21:23:09 · 503 阅读 · 0 评论 -
YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入CBAM的二次创新之SBAM注意力(全网独家创新)
总结:SBAM 在图像特征提取中的优异之处在于其综合性的注意力机制设计,特别是在像素级别的精细调控和多层次的特征增强上,使得网络能够更全面地捕获和利用图像中的关键信息。因此,对于需要更精确和全面特征提取的任务,如图像分类和细粒度识别,SBAM 的设计能够提供更显著的性能提升。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-08 21:08:28 · 766 阅读 · 2 评论 -
YOLOv11改进 | 独家创新- 注意力篇 | YOLOv11引入CoordAtt的二次创新之LCAttention注意力(全网独家创新)
相比之下,CoordAtt仅对水平和垂直方向的特征进行简单的通道注意力机制,这样的特征融合方式在捕捉复杂空间关系时,不如LCAttention的特征变换和非线性激活操作有效。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~横向和纵向池化:首先分别对输入特征图进行水平和垂直方向的池化操作,得到两个一维特征图。原创 2024-10-08 20:55:34 · 502 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入DualAttention注意力
然后,通过另一个构建的像素路径,这种压缩的全局语义可以作为学习更精细的像素级细节的有用先验信息。这两个路径在每个Dual block内部并行处理,共享梯度信息,从而允许模型同时补偿全局特征压缩过程中的信息损失,并降低局部精细特征提取的难度。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~3.3 在tasks.py里引用。原创 2024-10-08 20:41:53 · 358 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年最新Mamba注意力机制MLLAttention
然而,Mamba并不是第一个实现全局建模并具有线性复杂度的模型。基于这些发现,我们提出了MLLA模型,通过将这两个关键设计的优良特性整合到线性注意力中,得到了一个在图像分类和高分辨率密集预测任务中都优于各种视觉Mamba模型的模型,同时享受并行化计算和快速推理速度的优点。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-08 20:27:18 · 1278 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入TripletAttention三重注意力机制
我们在各种具有挑战性的任务上展示了我们的方法的有效性,包括在ImageNet-1k上的图像分类以及在MSCOCO和Pascal VOC数据集上的目标检测。我们的方法的经验评估支持了我们的直觉,即在计算注意力权重时捕获跨维度的依赖关系的重要性。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~3.3 在tasks.py里引用。原创 2024-10-07 21:09:28 · 394 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入BiFormer注意力机制
最后,输出特征会被恢复到原始的空间分辨率。例如,在ImageNet-1K数据集上的图像分类任务中,BiFormer-T模型在没有外部数据或蒸馏训练的情况下,以4.6G FLOPs的计算量实现了83.8%的Top-1准确率,这被认为是迄今为止在相似计算预算下的最佳结果。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-07 20:56:51 · 434 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入Deformable Attention Transformer(DAT)注意力机制
这种新的注意力模式不是简单地对所有查询分配固定的注意力点,而是学习一组与查询无关的偏移量,用于将所有者的键和值移动到重要区域。值得注意的是,虽然这种变形的多头注意力计算复杂性与PVT或Swin Transformer相当,但由于其独特的设计,使得内存复杂度保持在线性级别。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-07 20:43:41 · 315 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入FocalModulation注意力机制
焦点调制包含三个部分:(i) 焦点上下文化,使用一堆深度方向的卷积层实现,对从小范围到长范围的视觉上下文进行编码,(ii) 门控聚合,有选择地将上下文收集到每个查询标记的调制器中, (iii)逐元素仿射变换以将调制器注入到查询中。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~大家根据自己的数据集实际情况,修改nc大小。原创 2024-10-07 19:45:01 · 413 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入EfficientViT的Cascaded Group Attention注意力
为了解决这个问题,我们提出了一个级联的组注意力模块,为注意力头提供完整特征的不同分割,这不仅节省了计算成本,而且提高了注意力多样性。在传统的MHSA中,所有头部通常使用相同的全部特征进行自注意力运算,这导致了不同头部之间在学习线性投影时的相似性高,从而引发计算上的冗余。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-07 19:10:29 · 361 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入CoTAttention注意力
在技术实现上,CoT模块首先通过一个3×3的卷积操作对输入的键进行上下文化编码,得到静态的上下文表征。在这个过程中,每个头的局部注意力矩阵是基于查询特征和上下文化键特征学习的,而不仅仅是基于孤立的查询-键对,从而提高了自注意力学习的效能。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~3.3 在tasks.py里引用。原创 2024-10-07 19:00:32 · 479 阅读 · 0 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入通道先验卷积注意力(CPCA)
CPCA 拥有一个称为 CPCANet 的医学图像分割分割网络,并在两个公开可用的数据集上进行了验证,通过与状态的比较,CPCANet 实现了改进的分割性能,同时需要更少的计算资源。CPCA模块的结构分为几个关键步骤:首先,它通过通道注意力机制来聚合特征图中的空间信息。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-06 21:47:10 · 385 阅读 · 0 评论 -
YOLOv11改进 | Neck篇 | YOLOv11引入InceptionNeXt的MetaNeXtStage
1.1 摘要:受 ViT 的远程建模能力的启发,大核卷积最近被广泛研究和采用,以扩大感受野并提高模型性能,例如采用 7×7 深度卷积的杰出工作 ConvNeXt。通过这种新的 Inception 深度卷积,我们构建了一系列网络,即 IncepitonNeXt,它不仅具有高吞吐量,而且还保持有竞争力的性能。从功能上来说,MetaNeXtStage模块通过简化的步骤和减少冗余操作,提高了模型的处理速度,同时保持了与原始ConvNeXt相似的性能表现。大家根据自己的数据集实际情况,修改nc大小。原创 2024-10-06 21:28:30 · 408 阅读 · 0 评论 -
YOLOv11改进 | Conv篇 |YOLOv11引入SPD-Conv卷积
然而,在图像分辨率较低或物体较小的更艰巨的任务中,它们的性能会迅速下降。然后,我们通过将 SPD-Conv 应用于 YOLOv5 和 ResNet 来创建新的 CNN 架构,并根据经验表明,我们的方法显着优于最先进的深度学习模型,特别是在低分辨率图像和小物体的更艰巨的任务上。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-06 16:51:02 · 692 阅读 · 1 评论 -
YOLOv11改进 | 注意力篇 | YOLOv11引入24年HCF-Net模型提出的并行分块注意力机制PPA
1.1 摘要:红外小目标检测是一项重要的计算机视觉任务,涉及到对红外图像中微小目标的识别和定位,而红外图像通常只包含几个像素。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~综上PPA模块通过多分支特征提取、Patch感知注意力机制以及通道与空间注意力机制的结合,显著提高了红外小目标检测的准确性和鲁棒性。原创 2024-10-06 13:58:50 · 556 阅读 · 0 评论 -
YOLOv11改进 | 检测头篇 | YOLOv11引入Detect_AFPN检测头
添加完AFPN代码后,在ultralytics/nn/Extramodule/__init__.py文件中引用。(1) 在ultralytics/nn/tasks.py文件里引用Extramodule。3.1 在ultralytics/nn下新建Extramodule。3. YOLO11中添加Detect_AFPN检测头。3.2 在Extramodule里创建AFPN。在AFPN.py文件里添加给出的AFPN代码。(2) 在tasks.py找到Detect(3.3 在tasks.py里引用。原创 2024-10-06 13:16:08 · 677 阅读 · 0 评论 -
YOLOv11改进 | 检测头篇 | YOLOv11引入Detect_ASFF检测头
借助ASFF策略和YOLOv 3的可靠基线,我们在MS COCO数据集上实现了最佳的速度-准确性平衡,报告了60 FPS时38.1%的AP、45 FPS时42.4%的AP和29 FPS时43.9%的AP。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~简单易实施:ASFF的实施相对简单,增加的计算成本微乎其微。原创 2024-10-06 12:52:38 · 577 阅读 · 0 评论 -
YOLOv11改进 | Conv篇 | YOLOv11引入SCConv模块与C3k2_SCConv
在本文中,我们尝试利用特征之间的空间和通道冗余进行 CNN 压缩,并提出一种高效的卷积模块,称为 SCConv(空间和通道重建卷积),以减少冗余计算并促进代表性特征学习。此外,SCConv是一个即插即用的架构单元,可以直接用来替换各种卷积神经网络中的标准卷积。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-05 21:15:37 · 659 阅读 · 0 评论 -
YOLOv11改进 | Conv篇 | YOLOv11引入动态蛇形卷积(Dynamic Snake Convolution)
然而,许多因素使任务变得复杂,包括薄的局部结构和可变的全局形态。在DSConv中,将标准的卷积分核进行拉直处理,考虑一个9×9的卷积分核,以x轴方向为例,分核中每个网格的具体位置表示为Ki±c = (xi±c , yi±c),其中c代表水平距离从中心网格起的变化范围。到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv11改进有效涨点专栏,本专栏目前为新开的,后期我会根据各种前沿顶会进行论文复现,也会对一些老的改进机制进行补充,如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~原创 2024-10-05 21:01:23 · 464 阅读 · 0 评论