何恺明最新工作:简单实用的自监督学习方案MAE,ImageNet-1K 87.8%

本文介绍了何恺明的最新研究MAE,该工作探讨了BERT的掩码自编码机制在视觉和语言任务中的差异,并提出了一种新的自监督学习方法。该方法在ImageNet-1K上取得了87.8%的准确率,为自监督学习带来了实用性的提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者丨happy
编辑丨极市平台
本文首发于极市平台,转载须经授权并注明来源

论文链接:https://arxiv.org/pdf/2111.06377.pdf

恺明出品,必属精品!这篇文章延续了其一贯的风格:简单且实用。这篇文章仍属于恺明最近两年的研究领域:自监督领域(自监督学习就是被他带火的吧)。本文的出发点则是BERT的掩码自编码机制:移除一部分数据并对移除的内容进行学习。掩码自编码源于CV但盛于NLP,恺明对此提出了疑问:是什么导致了掩码自编码在视觉与语言之间的差异?尝试从不同角度进行解释并由此引申出了本文的MAE。

原文链接:何恺明最新一作:简单实用的自监督学习方案 MAE,ImageNet-1K 87.8%!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值