(二)YOLOV12部署训练

部署运行你感兴趣的模型镜像

 执行下面的命令

conda create --name yolov12 python=3.10

安装完成 

 激活环境

在github上下载yolov12

用vscode打开yolov12-main目录

 选择解释器

在vscode中按下 ctrl+shift+P

然后输入 Select Interpreter 选择解释器如下图

 完成后右下角显示

然后在 进入到yolov12-main目录中

找到requirements.txt注释掉flash_attn (原因是我是笔记本电脑,没有gpu)

 pip install -r requirements.txt

注意C盘要有足够的空间,否则容易安装失败 

然后创建detect.py文件内容如下 

from ultralytics import YOLO

model =YOLO("./yolov12n.pt")

results = model("ultralytics/assets/",conf=0.4,save=True)

运行后得的结果如下图 

到此环境OK

下来开始标注数据,我用的是labelstudio,大家也可以用labelimg

 把标注好的文件拷贝到相应的目录中 Images目录下有train和val目录

labels目录下同样需要有train和val目录

在根目录下创建data.yaml文件 

path: E:\\Project\\Yolo\\yolov12-main\\datasets # dataset root dir

train: E:\Project\Yolo\yolov12-main\datasets\images\train # train images (relative to 'path') 128 images

val: E:\Project\Yolo\yolov12-main\datasets\images\val # val images (relative to 'path') 128 images

test: # test images (optional)

# Classes

names:

  0: person

创建train.py文件

运行成功后在runs目录下就可以得到best.pt文件了

为了得到更好的结果,我把last.pt在训练一次

最终得到train4目录下的best.pt 

进行检测测试

测试结果

最后导出为onnx文件

 

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值