Grounded Segment Anything环境配置

部署运行你感兴趣的模型镜像

一、文件下载

1. 官网代码下载

进入官网地址下载:https://github.com/IDEA-Research/Grounded-Segment-Anything/tree/mainicon-default.png?t=N7T8https://github.com/IDEA-Research/Grounded-Segment-Anything/tree/main

2. 下载引用的库

下载以下两个引用的库,下载好后放在文件夹对应的位置

VISAM:BingfengYan/VISAM at d7c38233882ff9d34d5cbecb8495e175e4dffc8c (github.com)icon-default.png?t=N7T8https://github.com/BingfengYan/VISAM/tree/d7c38233882ff9d34d5cbecb8495e175e4dffc8cgrounded-sam-osx:linjing7/grounded-sam-osx at 6688b036c7856a302f9315bb16864d66fb2cdade (github.com)icon-default.png?t=N7T8https://github.com/linjing7/grounded-sam-osx/tree/6688b036c7856a302f9315bb16864d66fb2cdade

二、环境安装

1. 环境要求

python>=3.8pytorch>=1.7, torchvision>=0.8

我的环境:python=3.8pytorch=1.12.0, torchvision=0.13.1,cuda=11.3

2. pip安装

2.1 安装segment_anything

终端输入python -m pip install -e segment_anything

2.2 安装GroundingDINO

终端输入python -m pip install -e GroundingDINO(时间有点长,耐心等待)

最后出现如下即为下载成功

安装依赖项,进入到GroundingDINO,执行如下命令
cd GroundingDINO
python setup.py build
python setup.py install


出现如下结果即为安装成功

2.3 安装diffusers

终端输入pip install --upgrade diffusers[torch]

最后出现如下即为下载成功

2.4 安装grounded-sam-osx

终端输入conda install m2-base,方便后续使用bash命令可在windows环境下使用Linux命令

出现这个时输入y

最终出现这个即为安装成功

输入以下两个命令安装grounded-sam-osx
cd  grounded-sam-osx
bash install.sh

出现如下即为安装成功

2.5 安装其他依赖

终端输入  pip install opencv-python pycocotools matplotlib onnxruntime onnx ipykernel

出现如下即为安装成功

2.6 安装包

终端输入 pip install -r requirements.txt

显示如下即为安装成功

3. 权重文件下载

权重文件1:
https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth

权重文件2:
https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth

下载好的权重文件放在Grounded-Segment-Anything目录下:

您可能感兴趣的与本文相关的镜像

Python3.9

Python3.9

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

要进行Grounded Segment Anything根据文字自动画框或分割的环境配置和使用,可按以下步骤操作: ### 环境配置 1. **克隆Segment Anything项目**:有可能出现错误,需要配置好Git。然后使用以下命令克隆Segment Anything项目: ```bash git clone git@github.com:facebookresearch/segment-anything.git cd segment-anything; pip install -e . ``` 2. **下载权重文件**:需要下载GroundedDINO的权重文件,可从以下链接下载: https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth [^2] ### 基本使用教程 虽然引用中未提及基本使用教程的具体内容,但通常在克隆项目的官方文档中会有详细的使用说明。一般步骤可能包括: 1. 导入必要的库和模型。 2. 加载下载的权重文件。 3. 读取输入图像。 4. 输入描述文字。 5. 运行模型进行根据文字的画框或分割操作。 6. 可视化或保存结果。 以下是一个简单的示例代码框架(实际代码需根据项目具体情况调整): ```python import torch from segment_anything import sam_model_registry, SamPredictor import cv2 import numpy as np # 加载Segment Anything模型 sam = sam_model_registry["vit_h"](checkpoint="path/to/sam_vit_h_4b8939.pth") sam.to(device='cuda') predictor = SamPredictor(sam) # 加载GroundedDINO模型(假设已安装并导入) # grounded_dino_model = ... # 读取图像 image = cv2.imread('path/to/your/image.jpg') image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) # 设置输入文字 text_prompt = "your text description" # 运行模型进行处理 # 这里需要根据GroundedDINO和Segment Anything的具体API进行调用 # 例如: # boxes, masks = grounded_dino_and_sam(image, text_prompt) # 可视化结果 # for box in boxes: # cv2.rectangle(image, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2) # for mask in masks: # image = cv2.addWeighted(image, 0.7, mask * 255, 0.3, 0) # cv2.imshow('Result', image) # cv2.waitKey(0) # cv2.destroyAllWindows() ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值