Ubuntu22.04虚拟机里安装Yolov8流程

1. 安装pytorch

sudo apt install nvidia-cuda-toolkit
nvcc --version 
# 官方适配地址:https://download.pytorch.org/whl/torch/
import torch
print(torch.__version__)
print(torch.cuda.is_available())

在这里插入图片描述
在这里插入图片描述

2. 安装环境

# cuDNN 安装:https://developer.nvidia.com/rdp/cudnn-archive
# Anaconda 安装:https://www.anaconda.com/download
sh Anaconda3-2024.10-1-Linux-x86_64.sh

在这里插入图片描述
在这里插入图片描述

3. 安装yolo

pip install ultralytics

mkdir myYolo_test && cd myYolo_test
yolo task=detect mode=predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'
### Ubuntu 22.04安装和配置 YOLO 进行目标检测 #### 准备工作环境 为了确保YOLO能够顺利运行,首先需要准备合适的工作环境。这通常涉及到Python虚拟环境以及必要的依赖库。 对于CUDA的支持,这是为了让GPU加速成为可能,特别是当使用带有NVIDIA GPU的机器时。根据描述,在Ubuntu环境下部署YOLO前应先确认已正确安装适合版本的CUDA工具包[^4]。可以通过Anaconda来管理不同的开发环境,从而简化软件包管理和部署过程。 #### 安装 Anaconda 或 Miniconda 推荐采用Miniconda作为轻量级的选择,它提供了Conda包管理系统而不需要全部功能。下载并按照官方指南完成安装后,创建一个新的Conda环境用于YOLO: ```bash # 下载Miniconda脚本(假设为Linux x86_64架构) wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh # 执行安装命令 bash Miniconda3-latest-Linux-x86_64.sh # 创建新的Conda环境 conda create --name yolov5 python=3.9 -y ``` #### 配置 CUDA 和 cuDNN 考虑到YOLO模型训练过程中对性能的需求较高,建议安装匹配当前系统的CUDA版本及其对应的cuDNN库。具体操作如下所示: ```bash # 添加NVIDIA PPA源以便获取最新的图形驱动程序更新 sudo add-apt-repository ppa:graphics-drivers/ppa # 更新APT缓存并将所需的NVIDIA驱动加入到系统中 sudo apt-get update && sudo apt-get install nvidia-driver-<version> -y # 复制CuDNN文件至CUDA路径下 sudo cp -p cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64/ ``` 这需要注意的是`nvidia-driver-<version>`中的版本号应当依据实际情况调整;同时也要保证所使用的cuDNN版本与CUDA兼容[^2]。 #### 获取 YOLOv5 并设置 PyTorch 环境 接下来克隆YOLOv5仓库,并通过pip安装PyTorch及相关扩展模块: ```bash git clone https://github.com/ultralytics/yolov5.git cd yolov5 pip install -r requirements.txt ``` 上述指令将会拉取最新版的YOLOv5代码库,并自动处理所有必需的Python依赖项。 #### 测试安装成果 最后一步就是验证一切是否正常运作。可以尝试加载预训练权重执行一次推理任务来看看效果如何: ```python from pathlib import Path import torch from models.common import DetectMultiBackend from utils.dataloaders import IMG_FORMATS, VID_FORMATS, LoadImages, LoadStreams from utils.general import (LOGGER, check_file, check_img_size, check_imshow, colorstr, increment_path, non_max_suppression, print_args, scale_coords, strip_optimizer, xyxy2xywh) weights = 'yolov5s.pt' # 模型权重位置 source = 'data/images/zidane.jpg' # 输入图像或视频流地址 imgsz=(640, 640) # 推理尺寸大小 conf_thres=0.25 # 置信度阈值 iou_thres=0.45 # NMS IOU阈值 max_det=1000 # 单张图片最大检测数量 device = '' half=False # 是否开启FP16半精度推断 dnn=False # 使用OpenCV DNN进行ONNX推理 model = DetectMultiBackend(weights, device=device, dnn=dnn) stride, names, pt = model.stride, model.names, model.pt imgsz = check_img_size(imgsz, s=stride) # 检查推理尺寸 dataset = LoadImages(source, img_size=imgsz, stride=stride, auto=pt) for path, im, im0s, vid_cap, s in dataset: im = torch.from_numpy(im).to(device) im = im.half() if half else im.float() im /= 255 if len(im.shape) == 3: im = im[None] pred = model(im, augment=False, visualize=False) pred = non_max_suppression(pred, conf_thres, iou_thres, max_det=max_det) for det in pred: gn = torch.tensor(im0s.shape)[[1, 0, 1, 0]] if len(det): det[:, :4] = scale_coords(im.shape[2:], det[:, :4], im0s.shape).round() print('Inference completed.') ``` 这段简单的Python脚本展示了如何利用YOLOv5实现基本的目标检测流程。当然实际应用中还需要考虑更多细节比如数据集标注、自定义网络结构调优等问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

具身小站

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值