配置sam1并生成图像蒙板

由于标定的需求,需要使用sam进行蒙板生成,sam项目地址:

https://github.com/facebookresearch/segment-anything

我的设备信息:ubuntu20.04,CUDA 12.3

项目的requirement:

python>=3.8
pytorch>=1.7
torchvision>=0.8

使用miniconda创建虚拟环境,输入命令后回车,y

conda create -n sam_name python=3.8

创建成功,激活新创建的环境

conda activate sam_name

下面安装pytorch、torchvision包:

进入Pytorch官网

https://pytorch.org/

进行版本选择,复制生成的命令,在sam_name环境中运行

安装完成后,在sam_name环境下输入conda list查看是否安装成功,如果有下图的两个包代表成功:

下面执行命令,在主目录建立存放sagmet_anything的文件夹

#到主目录
cd /home/wyh/
#创建文件夹
mkdir sam_demo
#进入文件夹
cd sam_demo/
#从github上下载源码到文件夹
git clone https://github.com/facebookresearch/segment-anything

下载完成后,sam_demo文件夹下会多出segment-anything文件,下面进行安装

#进入项目
cd segment-anything/

#安装

pip install -e .

pip install opencv-python pycocotools matplotlib onnxruntime onnx

出现下图的内容,说明一切顺利:

接着下载模型:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_l_0b3195.pth

浏览器下载完成后,在终端将模型放到segment_anything文件夹下

sudo cp /home/wyh/下载/sam_vit_l_0b3195.pth  /home/wyh/sam_demo/segment-anything/

安装完成!下面跑一次示例数据

在segment_anything文件夹下新建data文件,里面放上一张图片,像这样

打开终端,确保在在sam_name环境和segmeng_anything文件夹下,运行下面命令

# run
python scripts/amg.py --checkpoint <path/to/checkpoint> --model-type <model_type> --input <image_or_folder> --output <path/to/output>

## example(recommended parameter)
python scripts/amg.py --checkpoint sam_vit_l_0b3195.pth --model-type vit_l --input 1_resized.png --output ./output/ --stability-score-thresh 0.9 --box-nms-thresh 0.4 --stability-score-offset 0.9

等待程序跑完,即可在segment_anything文件夹下,生成一个output文件,里面存放着输出的蒙板文件

 大功告成!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值