Pay Attention to MLPs

gMLP是一种新的网络架构,由谷歌大脑提出,它仅基于带门控的MLP,无需自注意力,却在视觉和语言任务上展现出与Transformer相当的性能。研究发现,gMLP在某些情况下甚至超越了ResMLP、MLP-Mixer等,且在视觉Transformer任务中精度可比肩DeiT。此外,gMLP在大规模模型中也能有效扩展,表现出与Transformer相似的缩放能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

研究表明:自注意力对于视觉Transformer并不重要,因为gMLP可以达到相同的精度,性能优于ResMLP、MLP-Mixer等网络,可比肩DeiT等,在视觉和语言任务中通吃!可媲美Transformer!

注1:文末附【视觉Transformer】交流群

注2:整理不易,欢迎点赞,支持分享!

想看更多CVPR 2021论文和开源项目可以点击:

CVPR2021-Papers-with-Code

gMLP

Pay Attention to MLPs
在这里插入图片描述

  • 作者单位:谷歌大脑(Quoc V. Le)
  • 论文下载链接:https://arxiv.org/abs/2105.08050

Transformers已成为深度学习中最重要的架构创新之一,并在过去几年中实现了许多突破。在这里,我们提出了一个简单的,无需注意力的网络体系结构gMLP,该体系结构仅基于带有gating的MLP,并显示了它在语言和视觉应用中的性能可与Transformer媲美。
在这里插入图片描述
gMLP细节(建议去看原文):

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值