第一次在Linux上运行YoloV7(环境安装==图片检测)

本文详细指导如何从GitHub下载Yolov7项目,包括环境配置(如安装Python库和NVIDIACUDA),以及进行单CPU或多CPU训练,使用PyTorch进行模型训练和推理,以及处理COCO数据集。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

准备

首先第一步下载全部工程代码

GitHub 链接:https://github.com/WongKinYiu/yolov7

  • 下载zip文件然后安装至服务器

(下载方法)

  • 这个方法是设备上安装了git

 命令:git clone 项目.git

(复制这个链接)


通过这个sh脚本获取coco数据集(我用的这里面的数据集,二十几个G)

可以下载coco128只有几兆(用这个的话记得改一下配置文件的代码)

链接:https://ultralytics.com/assets/coco128.zip


环境搭建

 在服务器上创建一个conda虚拟环境,我这里用的是python3.8的版本

指令:

 、、
conda create -n  python==3.8
、、

激活虚拟环境,再进入到yolov7-main文件夹下,运行以下命令查看NVIDIA coda核心的版本,看看符不符合依赖运行

指令:

、、
nucc- V
、、

安装1.12.1版本的PyTorch,连接镜像

ps:yolov7需要这个哦 

指令:

、、
pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113
、、

按照项目需求去安装对应的Python库,运行需要额外Python库的项目

、、
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
、、

  最后可以运行模型训练的命令,如果没有报错,则说明环境完全搭建好了


模型训练

配置完之后用以下代码进行训练

单CPU训练:

、、
python train.py --workers 8 --device 0 --batch-size 32 --data data/coco.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights '' --name yolov7 --hyp data/hyp.scratch.p5.yaml
、、

多CPU训练:

# train p5 models
python -m torch.distributed.launch --nproc_per_node 4 --master_port 9527 train.py --workers 8 --device 0,1,2,3 --sync-bn --batch-size 128 --data data/coco.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights '' --name yolov7 --hyp data/hyp.scratch.p5.yaml

# train p6 models
python -m torch.distributed.launch --nproc_per_node 8 --master_port 9527 train_aux.py --workers 8 --device 0,1,2,3,4,5,6,7 --sync-bn --batch-size 128 --data data/coco.yaml --img 1280 1280 --cfg cfg/training/yolov7-w6.yaml --weights '' --name yolov7-w6 --hyp data/hyp.scratch.p6.yaml

推理(用的是文件里有的图片)

图片:



python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source inference/images/horses.jpg

视频(自定义视频):


python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source yourvideo.mp4


运行成功


效果:

 查看结果可以使用

也可以用插件(这个更方便)

### YOLOv8 的运行环境要求 YOLOv8 是一种先进的目标检测框架,其运行环境主要取决于所使用的开发工具、操作系统以及必要的 Python 库版本。以下是关于 YOLOv8 运行环境的具体需求: #### 一、操作系统支持 YOLOv8 支持多种主流的操作系统,包括但不限于 Windows、macOS 和 Linux。对于特定场景下的部署,推荐使用 Ubuntu 系统作为服务器端的首选操作平台[^2]。 #### 二、Python 版本 YOLOv8 需要 Python 3.7 或更高版本的支持。这是由于该模型依赖于一些较新的 Python 功能和库接口设计所致。因此,在配置环境中应确保已安装兼容的 Python 解释器版本[^1]。 #### 三、必要软件与 IDE 工具 为了方便开发者调试代码并管理项目文件结构,建议采用专业的集成开发环境 (IDE),例如 PyCharm Community Edition 社区版。此款免费开源工具能够提供良好的用户体验和支持功能。 #### 四、核心依赖库及其版本说明 成功运行 YOLOv8 所需的关键依赖项如下: - **ultralytics**: 此为官方维护的一个封装包,包含了实现 YOLOv8 的全部逻辑组件。可以通过 `pip` 命令在线安装最新稳定发行版: ```bash pip install ultralytics ``` - **torch & torchvision**: 提供张量运算能力和深度学习算法构建基础。通常情况下,默认会自动处理这些依赖关系;但如果遇到问题,则可以手动指定合适的 torch/torchvision 组合来适配硬件加速特性(如 CUDA/GPU 加速)。 上述提到的所有外部模块均应在虚拟隔离空间内完成加载过程以避免污染全局命名空间或者引发冲突现象发生。 #### 五、其他可能涉及的技术栈要素 当扩展应用范围至视频流分析领域时,还可能会涉及到 OpenCV 等多媒体处理类别的第三方插件引入情况讨论。 ```python import cv2 from ultralytics import YOLO model = YOLO('yolov8n.pt') # Load a pretrained model. results = model(source='path_to_image_or_video', show=True, conf=0.5) ``` 以上即是对 YOLOv8 完整运行条件的一次全面概述。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值