🔥【DeepLabv3+改进专栏!探索语义分割新高度】
🌟 你是否在为图像分割的精度与效率发愁?
📢 本专栏重磅推出:
✅ 独家改进策略:融合注意力机制、轻量化设计与多尺度优化
✅ 即插即用模块:ASPP+升级、解码器
PS:订阅专栏提供完整代码
论文简介
我们重新审视了现代卷积神经网络(CNN)中的大卷积核设计。受近期视觉变换器(ViT)进展的启发,在本文中,我们证明使用少量的大卷积核而非一堆小卷积核可能是一种更强大的范式。我们提出了五条设计高效高性能大卷积核 CNN 的指导原则,例如应用重新参数化的大深度卷积。遵循这些原则,我们提出了 RepLKNet,这是一种纯 CNN 架构,其卷积核大小高达 31×31,与常用的 3×3 形成对比。RepLKNet 极大地缩小了 CNN 与 ViT 之间的性能差距,例如在 ImageNet 和一些典型下游任务上取得了与 Swin Transformer 相当甚至更优的结果,