一、本文介绍
本文给大家介绍一种利用UniRepLKNet主干优化YOLOv11模型主干网络!本文介绍了UniRepLKNet,一种通用的感知大核卷积神经网络(ConvNet),旨在解决现有大核ConvNet在架构设计上缺乏特异性,以及ConvNet在视觉以外模态的通用感知能力尚未充分探索的问题。
包含9种主干创新改进:'unireplknet_a', 'unireplknet_f', 'unireplknet_p', 'unireplknet_n', 'unireplknet_t', 'unireplknet_s', 'unireplknet_b', 'unireplknet_l', 'unireplknet_xl' ,助力YOLOv11高效涨点,具体怎么使用请看全文。
专栏改进目录:YOLOv11改进专栏包含卷积、主干网络、各种注意力机制、检测头、损失函数、Neck改进、小目标检测、二次创新模块、C2PSA/C3k2二次创新改进、全网独家创新等创新点改进
全新YOLOv11专栏链接:全新YOLOv11创新改进高效涨点+永久更新中(至少500+改进)+高效跑实验发论文
目录
四、手把手教你添加UniRepLKNet主干网络结构和修改task.py文件
1.首先在ultralytics/nn/newsAddmodules创建一个.py文件
2.在ultralytics/nn/newsAddmodules/__init__.py中引用
3.修改task.py文件 :在task.py中找到这个参数方法 def parse_model(d, ch, verbose=True):
🚀创新改进 : yolov11n_UniRepLKNet.yaml
二、⭐ UniRepLKNet主干网络介绍

摘要:大卷积核的卷积神经网络 (ConvNets) 近来受到了广泛的研究关注,但有两个未解决的关键问题亟待进一步研究。现有的大卷积核 ConvNets 的架构很大程度上遵循传统 ConvNets 或 transformer 的设计原则,而大卷积核 ConvNets 的架构设计仍有待加强。随着 transformer 在多种模态中占据主导地位,ConvNets 是否在视觉以外的领域也具有强大的通用感知能力仍有待考察。在本文中,我们从两个方面做出了贡献。我们提出了四个用于设计大卷积核 ConvNets 的架构指导方针,其核心是利用大卷积核的基本特性,即它们可以在不增加深度的前提下看得更广。遵循这些指导方针,我们提出的大卷积核 ConvNet 在图像识别方面表现出领先的性能 (ImageNet 准确率为 88.0%,ADE20K 的
订阅专栏 解锁全文
1913

被折叠的 条评论
为什么被折叠?



