论文地址:[2304.07193] DINOv2: Learning Robust Visual Features without Supervision (arxiv.org)
演示地址:DINOv2 by Meta AI

Meta 在开源了Segment Anything (参见我的另外两篇文章:北方的郎:Meta:segment anything, 北方的郎:Meta Segment Anything 测试效果)之后又开源了一组DINOv2模型。这次的功能更多了,包括分类、分割、图像检索、深度估计等。
作者指出:自然语言处理领域近期在大规模数据的模型预训练方面取得的突破为计算机视觉领域的类似基础模型铺平了道路。这些模型可以通过产生通用的视觉

DINOv2是Meta新发布的无监督学习模型,通过类似NLP领域的预训练方法,使用142M图像数据和DINO、iBOT损失函数,训练出可应用于多种任务的通用视觉特征。模型包含两个ResNet网络,借助动量更新和数据增强技术,无需微调即可在ImageNet上取得SOTA性能,显示了无监督学习在计算机视觉领域的潜力。
最低0.47元/天 解锁文章
4647

被折叠的 条评论
为什么被折叠?



