实例分割标注工具ISAT安装及使用教程

ISAT(Image Segmentation Annotation Tool)结合了Meta推出的Segment Anything Model(SAM),是一款功能强大且灵活的图像分割和打标签工具。
源码: https://github.com/yatengLG/ISAT_with_segment_anything/tree/master
官方中文安装及使用教程:https://isat-samzh.readthedocs.io/zh-cn/latest/

一、安装

1、3种安装方式

  • 源码运行
  • 通过pip安装
  • 通过exe安装

2、源码安装步骤

系统及软件:win10+Anaconda
1、去官网下载源码,或者使用git拉取

git clone https://github.com/yatengLG/ISAT_with_segment_anything.git

2、准备环境
创建虚拟环境

conda create -n isat_env python=3.8
conda activate isat_env

安装pytorch

通过pip安装的pytorch默认是cpu版本,gpu版本的pytorch需去 pytorch 官网手动安装。

切换到ISAT_with_segment_anything项目文件夹下,安装需要的库:

cd ISAT_with_segment_anything
pip install -r requirements.txt

3、运行软件

python main.py

在这里插入图片描述
运行后打开的界面如下:
在这里插入图片描述

二、使用

1、下载预训练模型

2种下载模型的方式:

  • 从网上下载模型,保存到以下目录ISAT_with_segment_anything/ISAT/checkpoints
  • 软件提供了模型管理界面。通过[菜单栏]-[SAM]-[模型管理]打开界面,可以下载、删除模型
    在这里插入图片描述

2、常用设置

2.1 中英文切换、查看快捷键

在这里插入图片描述

2.2 自定义类

在这里插入图片描述

2.3 实例分割标注步骤

1、选择要标注图片所在的文件夹,选择标签要存放的文件夹
在这里插入图片描述
2、选择标注要使用的模型
在这里插入图片描述

注意:如果没有下载或者不选择模型,上图👀图标是灰色的,无法使用SAM标注功能

3、设置自动保存
如果不设置自动保存,每次切换到下一张图片时,会提示你:是否要保存更改
在这里插入图片描述
4、打标签

  • 先选择类别,键盘上按下Q键调用模型准备标记
  • 鼠标左键在目标物体上点击,自动框选,可多次点击鼠标左键选择想要区域,有不想要的区域时按鼠标右键,按下键盘E键保存
  • 当一张图像上有多个物体时,重复上面的步骤 ;右侧标注信息可以删除、编辑等
  • 一幅图标记好后按D键下一张,A键上一张,撤回按Z键

在这里插入图片描述在这里插入图片描述
5、转换成yolo格式
在这里插入图片描述在这里插入图片描述

在这里插入图片描述

一、基本概念 1. 什么是目标检测 目标检测(Object Detection)的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心问题之一。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。 计算机视觉中关于图像识别有四大类任务: (1)分类-Classification:解决“是什么?”的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。 (2)定位-Location:解决“在哪里?”的问题,即定位出这个目标的的位置。 (3)检测-Detection:解决“在哪里?是什么?”的问题,即定位出这个目标的位置并且知道目标物是什么。 (4)分割-Segmentation:分为实例分割(Instance-level)和场景分割(Scene-level),解决“每一个像素属于哪个目标物或场景”的问题。 所以,目标检测是一个分类、回归问题的叠加。 2. 目标检测的核心问题 (1)分类问题:即图片(或某个区域)中的图像属于哪个类别。 (2)定位问题:目标可能出现在图像的任何位置。 (3)大小问题:目标有各种不同的大小。 (4)形状问题:目标可能有各种不同的形状。 3. 目标检测算法分类 基于深度学习的目标检测算法主要分为两类:Two stage和One stage。 1)Tow Stage 先进行区域生成,该区域称之为region proposal(简称RP,一个有可能包含待检物体的预选框),再通过卷积神经网络进行样本分类。 任务流程:特征提取 --> 生成RP --> 分类/定位回归。 常见tow stage目标检测算法有:R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN和R-FCN等。 2)One Stage 不用RP,直接在网络中提取特征来预测物体分类和位置。 任务流程:特征提取–> 分类/定位回归。 常见的one stage目标检测算法有:OverFeat、YOLOv1、YOLOv2、YOLOv3、SSD和RetinaNet等。 4. 目标检测应用 1)人脸检测 智能门控 员工考勤签到 智慧超市 人脸支付 车站、机场实名认证 公共安全:逃犯抓捕、走失人员检测 2)行人检测 智能辅助驾驶 智能监控 暴恐检测(根据面相识别暴恐倾向) 移动侦测、区域入侵检测、安全帽/安全带检测 3)车辆检测 自动驾驶 违章查询、关键通道检测 广告检测(检测广告中的车辆类型,弹出链接) 4)遥感检测 大地遥感,如土地使用、公路、水渠、河流监控 农作物监控 军事检测 二、目标检测原理 目标检测分为两大系列——RCNN系列和YOLO系列,RCNN系列是基于区域检测的代表性算法,YOLO是基于区域提取的代表性算法,另外还有著名的SSD是基于前两个系列的改进。 1. 候选区域产生 很多目标检测技术都会涉及候选框(bounding boxes)的生成,物体候选框获取当前主要使用图像分割与区域生长技术。区域生长(合并)主要由于检测图像中存在的物体具有局部区域相似性(颜色、纹理等)。目标识别与图像分割技术的发展进一步推动有效提取图像中信息。 1)滑动窗口 通过滑窗法流程图可以很清晰理解其主要思路:首先对输入图像进行不同窗口大小的滑窗进行从左往右、从上到下的滑动。每次滑动时候对当前窗口执行分类器(分类器是事先训练好的)。如果当前窗口得到较高的分类概率,则认为检测到了物体。对每个不同窗口大小的滑窗都进行检测后,会得到不同窗口检测到的物体标记,这些窗口大小会存在重复较高的部分,最后采用非极大值抑制(Non-Maximum Suppression, NMS)的方法进行筛选。最终,经过NMS筛选后获得检测到的物体。 滑窗法简单易于理解,但是不同窗口大小进行图像全局搜索导致效率低下,而且设计窗口大小时候还需要考虑物体的长宽比。所以,对于实时性要求
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值