7、deepsort环境,和yolov5的环境搭建

本文介绍了如何配置DeepSORT环境,包括使用CUDA110的torch版本。文章详细阐述了从安装依赖到训练自定义模型的过程,特别是针对YOLV5的预训练模型进行调整,以及创建和标注数据集。此外,还提到了DeepSORT的Re-ID训练和速度估计方法,包括考虑视频帧率和逆透视计算距离的技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、环境安装:    deepsort环境::         名称   deepsort_cuda110 !!

        正确的步骤(前两个,是错误示范!!!)
    pip install torch==1.7.1+cu110 torchvision==0.8.2+cu110 torchaudio==0.7.2 -f https://download.pytorch.org/whl/torch_stable.html
    ####   正确的配置:::    torch 1.7.1 + cuda 110    !!!

二、代码准备:
    
    1、修改权重,为官网下载的 yolov5s.pt的预训练文件,发现测试效果不怎么样,IDswitch,还有没跟踪上等问题,因为没有针对特定场景训练,所以我们自己训练一个!
    2、摄像头截屏,作为数据集,利用yolov5寻里哪一个自己的预训练模型pt,
        2.1 标注:  划分好文件夹,训练集和测试集,
        2.2 训练:
              1、修改yaml文件,位置dataset文件coco_hightways.yaml,路径path,相对path下的train和val路径,nc=2两类,类名:nc_nmae = ['car','track'],
            2、修改yaml文件,模型models规格,yolov5n、s、m.yaml,只需修改类别数量nc,nc为2即可!!!
            3、如同上次训练工地防护检测项目,再次进行训练即可。
    3、deepsort文件部分:
        deepsort文件夹下的deepsort,里面的deep文件,
        表征网络,外貌网络的特征提取文件,放在checkpoint 里的 ckpt7.t7   【 checkpoint7.t7 】  
        ckpt7放在,最外层的deepsort的 configs文件夹的yaml文件里!
    4、deepsort的训练【 re-ID 】:
        类似于 yolov5训练的检测模型
        创建一个类似yolov5的文件夹,里面放置所有文件夹,每个文件里,是每辆车在不同运动时间下的不同状态图,
        若需要训练:可以使用deep文件夹下的train.py文件,修改下,--data-dir 数据所在目录即可,
        类目(多少个车的文件夹),model.py里,有一个nun_classes,相当于yolov5的nc,修改成文件夹车辆的数量

        ## 实践:        进入deep目录,python train.py --data-dir ./car-reid-dataset/      ,训练一个epoch即可,因其网络较深,训练较慢!--data-dir   即为你数据集的目录!!!
           注意:     训练过程中 ckpt7.t7 会被覆盖,所以最好先备份一个《副本》!
          结束后:    他会保存一个训练结果最好的 epoch,模型文件,放在原来的ckpt.t7 的文件夹,覆盖掉原来的那个
                deep文件夹下,会生成每一个epoch 下的训练集和测试集的 loss图!!


    5、速度估计:
        速度 = 距离/时间
        时间: 好估计,因为视频帧数   FPS = 1秒内 的画面数,只需每每过 fps帧,即为时间上的 1秒!!
            不能用物理上的1 s,因为视频运算,不同模型下,性能有差异,算力不同计算速度不同,不一定是真实的 1秒!!!

        距离: 因为视频画面,斜着拍的,非平面,必须采用《逆透视》,根据经纬度,标注画面,估算出距离!        
        高德地图:    找出坐标点、点击分享,url地址里,有对应的经纬度信息,
        逆透视:        采用网上别人写好的脚本,经纬度逆透视成 距离,pixel_to_dis
        视频画面 jupyter 脚本:
                魔法函数%matplotlib qt5,而不是%inline,
                jupyter lab 中打开截图,标记坐标点,像素位置xy,
                    记得点击放大镜,划出矩形位置,放大画面!!!
                    左上角标记完成,点击一下home,再放大镜放大,要回右下角的xy坐标,
                绘制一下原点,以四个点为坐标,看看对不对!!!
        高德地图:    获取具体位置的经纬度,
                这是哪里,更多,分享!!! url打开后,会有具体的经纬度坐标!!!

### 配置YOLOv5DeepSort的运行环境 为了成功配置YOLOv5DeepSort的运行环境,确保按照以下指南操作可以顺利搭建所需的开发环境。 #### 1. Python版本确认 建议使用Python 3.x作为编程语言版本。这能更好地兼容YOLOv5以及DeepSort所依赖的各种库[^1]。 #### 2. 创建虚拟环境并激活 创建一个新的虚拟环境有助于隔离不同项目的依赖关系,防止冲突发生。可以通过`venv`模块来轻松完成此过程: ```bash python -m venv yolov5-deepsort-env source yolov5-deepsort-env/bin/activate # Linux/MacOS .\yolov5-deepsort-env\Scripts\activate # Windows ``` #### 3. 安装必要的Python包 进入项目根目录后,通过pip工具安装所需的所有Python软件包。通常情况下,这些需求会被记录在一个名为`requirements.txt`的文件里: ```bash cd path_to_your_project_root_directory pip install -r requirements.txt ``` 对于某些特定实现,比如基于C++结合TensorRT加速的目标追踪应用,则可能还需要额外安装CUDA Toolkit及相关驱动程序以支持GPU计算能力[^2]。 #### 4. 下载预训练模型权重 大多数开源项目都会提供官方预训练好的检测器特征提取网络参数文件供下载。访问对应的GitHub页面获取最新的链接地址,并将其放置于指定路径下以便后续加载使用[^3]。 #### 5. 修改配置文件适应本地设置 部分脚本可能会读取外部JSON或YAML格式的配置项来进行初始化工作。如果遇到此类情况,请仔细阅读文档说明调整相应字段值使其匹配个人计算机上的实际状况[^4]。 #### 6. 测试安装是否成功 最后一步是验证整个系统的正常运作状态。尝试执行一段简单的推理代码片段测试能否正确识别图像中的物体实例及其轨迹信息。 ```python from detector import Detector detector = Detector() video_path = 'path/to/test_video.mp4' output_file = 'result.avi' detector.track_and_count(video_path, output_file) ``` 以上就是关于如何配置YOLOv5DeepSort运行环境的大致流程介绍。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值