
即插即用-涨点
文章平均质量分 92
本专栏致力于分享“即插即用”模块(如注意力机制、卷积模块等)如何有效提升现有模型的表现。通过解析代表性论文,深入探讨这些模块是如何通过简单的集成来显著提高原有方法的性能指标。我们以简洁明了的方式总结各类即插即用技术的核心思想、具体实现及其对指标提升的效果,让您轻松掌握这些“涨点”技巧,为科研和项目带
深研 AI Lab
CV|NLP|多模态|计算机交叉学科
顶会顶刊|论文复现|️创新实验|科研指导
计算机视觉、多模态学习、大语言模型、医学图像分析、Diffusion 模型等,带你天天读论文,做科研
展开
-
【2024】QKFormer: Hierarchical Spiking Transformer using Q-K Attention
SNN在ImageNet上首次达到 85.65% 准确率!本文提出一种专为脉冲神经网络(SNN)定制的脉冲形式 Q-K 注意力机制,并提出QKFormer:一种全新的脉冲Transformer,目前最强SNN!这是第一次在 ImageNet-1K 上直接训练 SNN 的准确率超过 85%,原创 2024-03-27 07:55:06 · 1342 阅读 · 1 评论 -
[CVPR2024]DCNv4 Efficient Deformable ConvNets
Deformable Convolution v4 (DCNv4) 是一个高效和有效的算子,旨在广泛应用于视觉领域。它通过两种关键改进方案来解决其前作 DCNv3 的限制,即在空间聚合中删除 softmax 标准化以增强其动态特性和表达能力,并优化内存访问以提高速度。DCNv4 在各种任务中展现了卓越的性能,包括图像分类、实例和语义分割,尤其是图像生成。在将其集成到生成模型(如潜在扩散模型中的 U-Net)时,DCNv4 的性能超越基准模型,彰显了其增强生成模型的潜力。原创 2024-03-16 23:56:05 · 1700 阅读 · 0 评论