ubuntu+anaconda+vscode+FairMot 训练教程 慢慢更新

本文档详细记录了使用FairMOT进行目标检测与跟踪的步骤,包括环境配置、数据集准备、模型训练、可视化设置以及评估网络的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

安装环境的方式测试的参考:

复现FairMot踩坑记录_GG的博客-优快云博客問題1:ERROR: Command errored out with exit status 1: command: /home/se8502/anaconda3/envs/fairmot/bin/python -u -c 'import io, os, sys, setuptools, tokenize; sys.argv[0] = '"'"'/tmp/pip-install-loqfqgxu/lap_27d2b6fda8f14025af34865b05f8ff1c/setup.py'"'...https://blog.youkuaiyun.com/qwazp3526cn/article/details/121527060

开始 -

        作者:

https://github.com/ifzhang/FairMOThttps://github.com/ifzhang/FairMOT

首先下载数据集:

        CrowdHuman_train01.zip、CrowdHuman_train02.zip、CrowdHuman_train03.zip、              

        CrowdHuman_val.zip、CrowdHuman_test.zip

        annotation_val.odgt、annotation_train.odgt、crowdhuman_dla34.pth

在FairMOT-master根目录下创建\dataset\MOT\CrowdHuman

创建的格式按照作者的方式:

crowdhuman
   |——————images
   |        └——————train
   |        └——————val
   └——————labels_with_ids
   |         └——————train(empty)
   |         └——————val(empty)
   └------annotation_train.odgt
   └------annotation_val.odgt

具体如下:

打开\FairMOT-master\src\lib\cfg\data.json

======================2021.11.30.02.18=================

 成功训练

先睡觉

======================2021.12.01.11.27=================

更新:

今天先尝试一下2D MOT15训练

1.作者说这么准备数据集:

MOT15
   |——————images
   |        └——————train
   |        └——————test
   └——————labels_with_ids
            └——————train(empty)

(1)将2DMOT2015解压,放入./FairMOT-master/dataset/MOT/MOT15(这里可以是你自己新建的数据集)目录下,解析完成后。MOT15内有train和test两个文件夹,里面存着train和test数据。

(2)在./FairMOT-master/dataset/MOT/MOT15目录下新建一个labels_with_ids文件夹,里面建一个空的train文件夹。
然后下载seqinfo 文件,将 seqinfo 文件夹中的 *.ini 复制到 MOT15 对应的文件夹中。

详细一点是:

 ctrl+L 获取文件路径

/home/se8502/FairMOT-master/dataset/MOT/MOT15/images

/home/se8502/FairMOT-master/dataset/MOT/MOT15/labels_with_ids/train

2. 打开 src/python gen_labels_15.py 修改文件中数据集的路径 

分别是:seq_root 和  label_root

打开 Terminal  输入

python gen_labels_15.py

 

文件夹中就会生成训练集的label

3.训练模型:

按照这样的准备

4. 修改训练数据集地址:

打开文件./src/lib/opts.py

修改为自己的数据集地址:

# mot
    self.parser.add_argument('--data_cfg', type=str,
                             default='../src/lib/cfg/mot15.json',
                             help='load data from cfg')
    self.parser.add_argument('--data_dir', type=str, default='/home/se8502/FairMOT-master/dataset/MOT/MOT15')

打开src/lib/cfg/mot15.json

 修改为自己的数据集地址:

{
    "root":"/home/se8502/FairMOT-master/dataset/MOT",
    "train":
    {
        "mot15":"./data/mot15.train"
    },
    "test_emb":
    {
        "mot15":"./data/mot15.train"
    },
    "test":
    {
        "mot15":"./data/mot15.train"
    }
}

5.训练:

根据自己实际,修改mot15_ft_mix_dla34.sh,训练按照下面的代码:

sh mot15_ft_mix_dla34.sh

========================2021.12.04.03.50================

可视化:

安装tensorboard

conda install tensorboard

进入文件

/home/se8502/FairMOT-master/exp/mot/

看到训练的文件

进入

接下来输入:

tensorboard --logdir ./ --port=8080

打开链接:

 可以看到可视化的内容

评估网络:

CUDA_VISIBLE_DEVICES=0 python track.py mot --val_mot15 True --load_model ../models/fairmot_dla34MOT17.pth --conf_thres 0.6 --save_all 

 

评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

高高呀~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值