YOLACT/YOLACT++安装测试与微调训练

本文详细介绍YOLACT及YOLACT++实例分割模型的安装、测试与人体识别的重训练流程,涵盖COCO数据集调整、模型微调等关键技术。
部署运行你感兴趣的模型镜像


简介

YOLACT / YOLACT++ 是在one-stage型检测器上添加一个mask分支来达到实例分割.

论文地址:

优势:

  1. 速度快,因为one-stage;
  2. mask质量高,因为不包含repooling类操作;
  3. 普适性强,这种生成原型mask和mask系数的思路可以应用在目前很多留下的检测器上。

性能对比:
与其他一些现有的实例分割模型在COCO数据集上的表现对比如下图所示
在这里插入图片描述

结果展示:
在这里插入图片描述

YOLACT 安装与测试

安装:

  • github开源地址: https://github.com/dbolya/yolact

  • 安装依赖: Pytorch 1.0.1 (or higher), TorchVision, cython, opencv-python, pillow , matplotlib

  • 由于pycocotools 并不支持Windows系统, pip无法直接安装, 需要折腾一下 查看教程:

    • 下载 Visual C++ 2015 Build Tools, 默认路径安装
    • 执行pip命令: pip install git+https://github.com/philferriere/cocoapi.git#subdirectory=PythonAPI github访问不稳定时, 多试几次
  • 进入项目目录.\yolact-master\

  • 下载 预训练权重.\yolact-master\weights\文件夹

图像输入测试:

  • 将自己的测试图像放在该目录下.\yolact-master\test.jpg
  • 执行命令
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=test.jpg

在这里插入图片描述
webcam测试:
官方提供了测试api, 但我这里未能运行
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --video_multiframe=4 --video=0

opencv开启摄像头测试:

  • 完整代码已经上传: 点击下载 删除了命令参数输入与解析代码, 可以直接运行
  • 关键代码如下: 使用opencv打开摄像头, 并显示检测结果
def evalimage(net: Yolact, camera_index=0):
    camera = cv.VideoCapture(camera_index, cv.CAP_DSHOW)
    if not camera

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论 39
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值