4月5日,Facebook母公司Meta在推特宣布推出SAM模型(Segment Anything Model)并开源。该模型能够查找和分割图像和视频中的任何对象,实现一键抠图。同日,Meta还发布了自称有史以来最大的图像注释数据集,以及30页详解论文《Segment Anything》。

11 亿 + 掩码数据集可提取!
SAM的目标在于精准“分割一切”。相较于广泛可见的手动抠图功能,SAM在操作层面主要有以下几个方面的显著亮点:
第一,万物识别。“零样本性能”是它的强大之处,在面对没有见过的物体时,SAM不需要额外训练也能将它识别出来。
第二,可处理文本、关键点、边界框等多模态提示。如输入具体文字如“CAT”,SAM就可以在图片中分割出物体。第三,给出任意图片,SAM可以自动分割图像中的所有单品并一件件归类。
第四,视频方面,SAM也能准确识别并快速标记,并自动用ID给这些物品进行记录和分类。
第五,SAM接受来自其他系统的输入提示、输出物体信息到其他AI系统。
Meta研发团队在官网上发布了关于Segment Anything的论文细节。

Meta发布SAM模型,能精准分割图像和视频中的任何对象,无需额外训练即可识别新物体。同时推出大型图像注释数据集和详细论文,支持文本、关键点等多种提示,适用于物体分割和视频标记。
最低0.47元/天 解锁文章
5412

被折叠的 条评论
为什么被折叠?



