demo主页(包含paper, demo, dataset)
通过demo可以看到一个酷炫的效果,鼠标放在任何物体上都能实时分割出来。
segment anything宣传的是一个类似BERT的基础类模型,可以在下游任务中不需要再训练,直接用的效果。
而且是一种带有提示性的分割模型,
提示可以有多种:点,目标框,mask等。
为了达到像NLP那样zero-shot和few-shot的推广效果,
paper从三个方面入手:
1.Task,这个task需要能提供一个强大的pretraining模型,使下游很多任务都能推广使用。
2.Model,支持多种提示信息,在互动中实时输出分割mask。
3.数据集,现有的分割数据集都不够充足。
Task:
当有新的数据集时(以前没见过),通过提示信息也能做到zero-shot, few-shot。
提示就是指你要分割什么,比如通过点击图片上的一点或者给一个目标框,或者提供一个Text。
需要解决的是模糊的提示下也能给出有效的mask.
比如在一个T-shirt上给一个点,那么是要分割出T-shirt还是要分割出穿这个T-shirt的人呢。
提示性的分割task包含一个提前训练好的模型,通过提示信息解决下游任务。

Model:
主要是transformer

文章介绍了SegmentAnything(SAM)模型,这是一个基于Transformer的模型,能够在不同提示信息下进行实时的图像分割。SAM采用预训练的ViT模型并利用MAE增强,支持点、目标框等多种提示。数据集标注过程分为三个阶段,从辅助人工标注到半自动再到全自动,逐步提高模型的准确性和效率。模型通过focalloss和diceloss的组合优化损失函数,实现对歧义提示的处理。
最低0.47元/天 解锁文章
2503

被折叠的 条评论
为什么被折叠?



