Hack Hui
***添加微信公众号【CV Hack Hui】,发送【联系方式】。博主是985计算机博士,研究方向:计算机视觉、图像处理、目标检测、图像分割等!***发表多篇CCF顶会顶刊论文以及发明专利,担任多家包括ECCV\CVPR等审稿人! ***如果有考研申博、科研辅导、代码调试、更换数据集、指标计算等!***可以提供一对一高效辅导,可以找到我哦!群里都是志同道合的小伙伴,说不定就可以解决你的问题呢!
展开
-
【即插即用完整代码】CVPR 2025 川大:序列洗牌注意力,高效聚合信息,快速涨点,发表论文!
【即插即用完整代码】CVPR 2025 川大:序列洗牌注意力,高效聚合信息,快速涨点,发表论文!原创 2025-03-29 18:00:00 · 103 阅读 · 0 评论 -
【即插即用完整代码】CVPR 2025 自适应矩形卷积模块,快速涨点,发表论文!
【即插即用完整代码】CVPR 2025 自适应矩形卷积模块,快速涨点,发表论文!原创 2025-03-28 17:43:33 · 245 阅读 · 0 评论 -
【即插即用完整代码】ACCV 2024 基于小波变换的通道Mamba块,捕获全局信息,快速涨点,发表论文!
【即插即用完整代码】ACCV 2024 基于小波变换的通道Mamba块,捕获全局信息,快速涨点,发表论文!原创 2025-03-23 17:30:00 · 105 阅读 · 0 评论 -
【即插即用完整代码】新方法归一化空间与通道注意力,无额外参数,轻量且高效,超越CBAM,快速涨点,发表论文!
【即插即用完整代码】新方法归一化空间与通道注意力,无额外参数,轻量且高效,超越CBAM,快速涨点,发表论文!原创 2025-03-22 05:30:00 · 58 阅读 · 0 评论 -
【即插即用完整代码】arXiv 2025 轻量级双分支Mamba卷积,提取全局和局部信息,快速涨点,发表论文!
【即插即用完整代码】arXiv 2025 轻量级双分支Mamba卷积,提取全局和局部信息,快速涨点,发表论文!原创 2025-03-16 05:30:00 · 244 阅读 · 0 评论 -
【即插即用完整代码】ICML 2024 重参数化BatchNorm,可直接替换现有归一化方法,快速涨点,发表论文!
【即插即用完整代码】ICML 2024 重参数化BatchNorm,可直接替换现有归一化方法,快速涨点,发表论文!原创 2025-03-12 17:30:00 · 59 阅读 · 0 评论 -
【即插即用完整代码】IEEE 2024 双池化时序注意力模块DPTAM,即插即用,即用即涨点!
【即插即用完整代码】IEEE 2024 双池化时序注意力模块DPTAM,即插即用,即用即涨点!原创 2025-02-21 12:25:50 · 153 阅读 · 0 评论 -
【即插即用完整代码】Elsevier 2023 轻量级多维协作注意力Mult-Collaborative-Attention,模型快速涨点,发表论文!
【即插即用完整代码】Elsevier 2023 轻量级多维协作注意力Mult-Collaborative-Attention,模型快速涨点,发表论文!原创 2025-01-27 17:30:00 · 128 阅读 · 0 评论 -
【即插即用完整代码】ICLR 2024 递归泛化自注意力RG-SA,低成本捕获全局空间信息!模型快速涨点,发表论文!
【即插即用完整代码】ICLR 2024 递归泛化自注意力RG-SA,低成本捕获全局空间信息!模型快速涨点,发表论文!原创 2025-01-24 17:30:00 · 118 阅读 · 0 评论 -
【即插即用完整代码】最新多模态条件注意力模块TabAttention,快速发表论文,模型快速涨点!
【即插即用完整代码】最新多模态条件注意力模块TabAttention,快速发表论文,模型快速涨点!原创 2025-01-22 17:30:00 · 827 阅读 · 0 评论 -
【即插即用完整代码】arXiv 2025 卷积加法自注意力CASAtt,轻量且高效,快速发表论文!
【即插即用完整代码】arXiv2025卷积加法自注意力CASAtt,轻量且高效,模型快速涨点!原创 2025-01-20 12:55:35 · 745 阅读 · 0 评论 -
【即插即用完整代码】AAAI 2025 新型风车形卷积PConv,大感受野,可替换标准卷积!
【即插即用完整代码】AAAI 2025 新型风车形卷积PConv,大感受野,可替换标准卷积!原创 2025-01-17 11:46:56 · 1640 阅读 · 0 评论 -
【即插即用完整代码】ICCV 2023无偏快速傅里叶卷积UFFConv,有效地捕获频率信息!
【即插即用完整代码】ICCV 2023无偏快速傅里叶卷积UFFConv,有效地捕获频率信息!原创 2025-01-15 16:43:35 · 1091 阅读 · 0 评论 -
【即插即用完整代码】NeurIPS 2024显著提高分割性能!语义和空间自适应的分类器SSA-Seg!
【即插即用完整代码】NeurIPS 2024显著提高分割性能!语义和空间自适应的分类器SSA-Seg!原创 2025-01-09 11:24:20 · 857 阅读 · 0 评论 -
【即插即用完整代码】AAAI 2024,Conv-Former注意力模块,用卷积实现Transformer效果!
【即插即用完整代码】AAAI 2024,Conv-Former注意力模块,用卷积实现Transformer效果!原创 2025-01-06 21:55:30 · 1523 阅读 · 0 评论 -
【即插即用完整代码】CVPR 2024部分单头注意力SHSA,分类、检测和分割SOTA!
【即插即用完整代码】CVPR 2024部分单头注意力SHSA,分类、检测和分割SOTA!原创 2025-01-06 21:28:05 · 1253 阅读 · 0 评论 -
【即插即用附完整代码】2024最新多头注意力模块MOH,快速论文、模型涨点!
背景与动机:传统的多头注意力机制(Multi-Head Attention)是Transformer模型的核心组件,广泛应用于自然语言处理和计算机视觉任务中。尽管多头注意力通过使用多个注意力头提高了模型的准确度,但并非所有注意力头都同等重要。一些研究表明,许多注意力头可以被剪枝而不影响模型的准确度。方法介绍:作者提出了Mixture-of-Head(MoH)注意力机制,将注意力头视为Mixture-of-Experts(MoE)机制中的专家。原创 2025-01-04 23:09:00 · 643 阅读 · 0 评论 -
【即插即用】快速发论文Vision Permutator,CV模型涨点起飞了呀!
本文提出了一种名为Vision Permutator的新型MLP(多层感知机)类架构,用于视觉识别任务。该架构通过分别沿高度和宽度维度编码特征表示,捕获长距离依赖关系,同时保留精确的位置信息。与依赖于空间卷积或注意力机制的模型不同,Vision Permutator在不依赖这些机制的情况下,仅使用25M可学习参数就在ImageNet上达到了81.5%的Top-1准确率,优于大多数CNN和视觉Transformer模型。原创 2025-01-01 15:23:51 · 870 阅读 · 0 评论 -
【即插即用】语音模型-简化版自注意力机制SSAN,涨点起飞了!
本文介绍了一种简化的自注意力(SSAN)层,用于基于Transformer的端到端语音识别系统。该方法通过引入FSMN记忆块来替代传统Transformer模型中的投影层,以形成查询和键向量,从而减少模型参数并保持识别性能。原创 2024-12-29 22:29:37 · 1015 阅读 · 0 评论 -
【即插即用】金字塔压缩注意力模块EPSA,CV模型轻松涨爆点!!
本文提出了一种新型的轻量级且有效的注意力方法,名为Pyramid Squeeze Attention (PSA)模块。通过在ResNet的瓶颈块中替换3x3卷积,得到了一种新的表示块,称为Efficient Pyramid Squeeze Attention (EPSA)。EPSA块可以作为即插即用组件添加到已建立的骨干网络中,显著提高模型性能。基于此,本文开发了一种简单高效的骨干架构EPSANet,通过堆叠这些ResNet风格的EPSA块构建。原创 2024-12-27 15:36:56 · 1200 阅读 · 0 评论