YOLOv8目标检测创新改进与实战案例专栏
专栏目录: YOLOv8有效改进系列及项目实战目录 包含卷积,主干 注意力,检测头等创新机制 以及 各种目标检测分割项目实战案例
专栏链接: YOLOv8基础解析+创新改进+实战案例
介绍
摘要
与近年来大规模视觉Transformer (ViTs) 的巨大进步相比,基于卷积神经网络 (CNNs) 的大规模模型仍处于早期阶段。本工作提出了一种新的大规模基于CNN的基础模型,称为InternImage,它能够像ViTs一样,通过增加参数和训练数据来获得提升。与最近关注大密度卷积核的CNNs不同,InternImage以可变形卷积作为核心运算符,因此我们的模型不仅具有下游任务(如检测和分割)所需的大有效感受野,还具有根据输入和任务信息自适应的空间聚合能力。结果是,所提出的InternImage减少了传统CNNs的严格归纳偏差,使其能够从大规模参数和海量数据中学习更强大、更鲁棒的模式,类似于ViTs。我们模型的有效性在包括ImageNet、COCO和ADE20K在内的挑战性基准上得到了验证。值得一提的是,InternImage-H在COCO test-dev上达到了新的记录65.4 mAP,在ADE20K上达到了62.9 mIoU,超越了当前领先的CNNs和ViTs。
文章链接
论文地址:论文地址
代码地址:代码地址
基本原理
- 借鉴了可分离卷积的思想,将原始卷积权重 w k w_k w