Labelme + SAM 环境配置与运用

我的配置步骤

SAM模型分割效果成效没有我想要的预期那么好,后期待完善,记录一下我的学习笔记

首先配置labelme+sam 

目录

下面是我的配置步骤

1.环境配置

2.我走的弯路

我的方法比较简单粗暴

操作来源这篇博客 labelme+sam在windows上使用指南-优快云博客

下列操作 均在已经存在虚拟环境的条件下操作 ,没有虚拟环境的先创建虚拟环境!我的虚拟环境是Anaconda

注意在创建虚拟环境的时候,建议python==3.8比较好,我最开始使用python==3.6,后续使用create AI-ploygon 就一直报错,重新搭建的虚拟环境

conda create labelme python=3.8

1.下载labelme环境配置

 加载进入Releases · wkentaro/labelme · GitHub  科学上网快!

手动下载Source code.zip

然后手动解压安装包(因为我的虚拟环境  好像没有unzip使用unzip会报错)

激活虚拟环境进入安装包:我的虚拟环境设置在了 D:\AncondaEnv

conda activate D:\AncondaEnv
(D:\AncondaEnv) PS C:\Users\admin>cd labelme-5.3.1

下载

pip install -e .

下载完毕后,直接进入labelme

labelme

下载无报错,就可以打开labelme开炫啦! 

2.我走的弯路 -- 我遇到的问题

我在进行这一步之前,自己从清华镜像下 下载了 onnxruntime这个包,但是好像镜像里面只有1.10.1最新版本,但是labelme里的setup文件要求onnxruntime 1.14.1

所以我必须卸载这个版本,而且pip install onnxruntime对我没用,它会自动从清华镜像里下载,我尝试过删除镜像来源,还是不行!

pip install onnxruntime //无用

 所以我采用了简单粗暴的方式!!直接去onnxruntime · PyPI   下载.whl文件 然后安装

 里面版本很多,下载前 先在自己的虚拟环境安装wheel

pip install wheel

然后查看自己的python版本支持的whl适配文件,输入:

pip debug --verbose

得到自己的适配型号 ,下面是python3.8的适配型号

我安装3.6的还有一个原因是,3.6不支持cp38-cp38-win_amd64,它只有 cp36-cp36-win_amd64,而onnxruntime · PyPI  中onnxruntime1.16.1-cp38-cp38-win_amd64.whl

 点击对应的.whl文件后下载即可,然后我将这个文件移动到 C:\Users\admin

然后直接进行下载,也可以进进入你.whl文件所在的位置然后再下载即可

pip install onnxruntime-1.16.1-cp38-cp38-win_amd64.whl

下载后再去labelme-5.3.1 进行pip install -e .

以上就可以成功配置labelme,并使用AI 模型,但是我看配置SAM还有权重文件,以及这里面的AI标记我暂时还不会使用

—— —— —— —— —— ——  —— —— —— —— —— —— ——  —— —— —— —— —— —

二编一下 ——  配置完上述的步骤后,就可以直接开炫了,不用再搞SAM的权重文件

想使用AI 分割的话,就直接选择 Create AI-Polygon 就可,控制面板的界面就如下

使用AI 分割的时候只需要点击你想单独分割出来的物体就可,如果效果不太好,可多点几下

谈谈使用感受:

就是在分割单个物体的时候效果还是不错的,但是如果是分割多个物体,我建议是直接一个一个的分,也可以实现,比如我现在是要分割连在一起的物体,AI识别阔能就没那么准确,就可以按个分割。

目标检测(Object Detection)是计算机视觉领域的一个核心问题,其主要任务是找出图像中所有感兴趣的目标(物体),并确定它们的类别和位置。以下是对目标检测的详细阐述: 一、基本概念 目标检测的任务是解决“在哪里?是什么?”的问题,即定位出图像中目标的位置并识别出目标的类别。由于各类物体具有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具挑战性的任务之一。 二、核心问题 目标检测涉及以下几个核心问题: 分类问题:判断图像中的目标属于哪个类别。 定位问题:确定目标在图像中的具体位置。 大小问题:目标可能具有不同的大小。 形状问题:目标可能具有不同的形状。 三、算法分类 基于深度学习的目标检测算法主要分为两大类: Two-stage算法:先进行区域生成(Region Proposal),生成有可能包含待检物体的预选框(Region Proposal),再通过卷积神经网络进行样本分类。常见的Two-stage算法包括R-CNN、Fast R-CNN、Faster R-CNN等。 One-stage算法:不用生成区域提议,直接在网络中提取特征来预测物体分类和位置。常见的One-stage算法包括YOLO系列(YOLOv1、YOLOv2、YOLOv3、YOLOv4、YOLOv5等)、SSD和RetinaNet等。 四、算法原理 以YOLO系列为例,YOLO将目标检测视为回归问题,将输入图像一次性划分为多个区域,直接在输出层预测边界框和类别概率。YOLO采用卷积网络来提取特征,使用全连接层来得到预测值。其网络结构通常包含多个卷积层和全连接层,通过卷积层提取图像特征,通过全连接层输出预测结果。 五、应用领域 目标检测技术已经广泛应用于各个领域,为人们的生活带来了极大的便利。以下是一些主要的应用领域: 安全监控:在商场、银行
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值