Meta AI Segment Anything Model (SAM)初体验

SegmentAnything是一款由MetaAI推出的图片分割工具,用户可以轻松地通过上传图片,然后通过Hover&Click或Box方式选择并提取所需物体。一切物体都能被识别并保存为透明背景的图片,尽管处理大图可能导致分辨率下降。

最近Meta AI发布了Segment Anything模型,可以直接分割任何图片。我趁热乎体验了一下。

进入官网 & 上传图片

打开Segment Anything官网https://segment-anything.com/

https://segment-anything.com/
点击Try the demo,在弹出的对话框中勾选“I have read…”,进入上传界面:

https://segment-anything.com/demo

点击“Upload an image”,上传自己的图片:

上传图片

我上传的图片大小是5.14MB,提取物体用时3分06秒。

鼠标悬停

Hover & Click——截取物体

处理完毕后,当鼠标悬停在某个物体上时,该物体被标蓝。点击左侧的“Hover & Click”,然后左键点击图像的某一区域可以将该物体加入选区,右键移除选取。比如,我想抠出房子但

### Segment Anything Model (SAM) 综述 Segment Anything Model (SAM)[^1] 是由Meta AI提出的开创性项目,专注于解决图像分割问题。此模型不仅引入了一种全新的任务形式,还提供了一个强大的预训练模型和庞大的数据集支持。 #### 模型特点 SAM的设计核心在于其能够响应各种类型的提示输入并据此生成对应的分割掩码[^2]。这意味着用户可以通过简单的指示(比如点击图片中的某个位置),让模型理解意图并对指定区域进行精确切割。此外,该模型具备出色的零样本迁移学习能力,在未经额外训练的情况下即可应用于未曾见过的数据分布或全新任务中,并取得优异的成绩。 #### 数据资源 为了训练这样一个高效的分割工具,团队创建了目前最大规模的高质量标注数据集合——SA-1B, 包含超过十亿个手工制作的mask覆盖约一百一十万幅独特影像素材。这些材料均经过合法授权并且充分考虑到了个人隐私保护方面的要求。 #### 技术细节 从架构上看,SAM主要分为三个部分: - **Image Encoder**: 负责提取原始图像特征; - **Prompt Encoder**: 将用户的指令转化为机器能识别的形式; - **Mask Decoder**: 结合前两者输出最终的分割结果。 对于开发者来说,官方提供了详细的API文档以及开源代码仓库[^3],使得任何人都可以在本地环境中轻松部署这个先进的AI解决方案。 ```python from segment_anything import sam_model_registry, SamAutomaticMaskGenerator, SamPredictor sam_checkpoint = "path/to/sam_vit_h_4b8939.pth" model_type = "vit_h" device = "cuda" sam = sam_model_registry[model_type](checkpoint=sam_checkpoint) sam.to(device=device) predictor = SamPredictor(sam) image = cv2.imread('input_image.jpg') predictor.set_image(image) masks, scores, logits = predictor.predict( point_coords=None, box=None, multimask_output=True, ) ``` 上述Python脚本展示了如何加载预训练好的SAM权重文件并将之用于实际场景下的物体检测操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值