利用Triton Pipelines部署yolov5 service

本文介绍了Triton Pipelines在模型服务中的应用。它是一种工作流,可将不同模型服务组合成完整应用。其实现方式有BLS和Ensemble,前者灵活性高,后者效率高。还阐述了部署方法,以目标检测为例,将nms模块单独部署,通过pipelines连接相关模块,并给出了工作流及处理输出数量不固定的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 为什么使用Triton pipelines

众所周知,模型服务不仅包含 GPU based Inference,还包括preprocess和postprocess。Triton Pipelines是一种workflow, 它可以组合不同的模型服务组合成一个完整的应用, 同一个模型服务还可以被不同的workflow使用。
因此可以单独将preprocess或postprocess单独部署,然后通过Pipeline将它们和infer模块串联起来。这样做的好处是:

  • 每个子模块都可以分别申请不同种类和大小的资源、配置不同的参数,以达到最大化模型服务效率的同时,充分利用计算资源。

  • 可以避免传输中间张量的开销,减小通过网络传输的数据大小,并最大限度地减少必须发送到 Triton 的请求数量。

相关代码链接


2. Triton Pipelines的实现方式

Nvidia Triton提供了两种Pipleline的部署方式:分别为Business Logic Scripting(BLS)和Ensemble。下面简单介绍一下这两种方式。

  • Ensemble
    通过组合model repository里的各类模型成为一个workflow。是一种pipeline调度策略,而不是具体的model。 ensemble效率更高,但无法加入条件逻辑判断,数据只能按照设定的pipeline流动,适合pipeline结构固定的场景

请添加图片描述

  • BLS
    一种特殊的python backend,通过python code调用其他model instance。BLS灵活性更高,可以加入一些逻辑和循环来动态组合不同的模型,从而控制数据的流动方向。
    请添加图片描述

3. 如何部署Triton Pipelines

通过Pipelines部署process模块的一个出发点是,减小通过网络传输的数据大小。在目标检测模型服务中,输入端的raw_image和nms之前的candidate bboxes的数据量都是相对较大,因此一个合适的方案就是将nms这一postprecess模块单独通过python backend部署,通过pipelines连接infer和nms模块,client则需要对raw_data进行必要的resize等preprocess操作。

3.1 工作流

Pipleine配置及python backend参考Model Repository的ensemblebls

两种部署方式的工作流如下:

请添加图片描述

3.2 BLS

  • 数据流向
    1. 通过http/gRPC发送resize后的image到BLS模型服务
    2. BLS服务通过C API调用yolov5 tensorrt模型服务
    3. Triton Server将candidate bboxes返回给BLS服务
    4. BLS服务对candidate bboxes进行nms操作,将最终的bboxes通过http/gRPC返回给client

3.3 Ensemble

  • 数据流向
    1. 通过http/gRPC发送resize后的image到ensemble模型服务
    2. ensemble模型服务通过memory copy将yolov5 tensorrt的输出的candidate bboxes传递给nms模型服务
    3. ensemble模型服务将nms输出的bboxes通过http/gRPC返回给client

3.4 Notice

NMS输出的bboxes数量不固定,一般有三种处理方式:

  1. 对bboxes做padding, 例如规定输出是 [batch_size, padding_count, xywh or xyxy], 其中 pandding_count 根据实际场景来确定
  2. 将模型的输出结果放到一个 json, 以 json string ([N, 1]) 的形式返回
  3. 采用将 response 解耦的方式

本文采用padding的方式来解决该问题

from torch.nn import functional as F
i = torchvision.ops.nms(boxes, scores, nms_threshold)
# padding boxes to 300
if i.shape[0] > max_det:  # limit detections
    i = i[:max_det]
bbox_pad_nums = max_det - i.shape[0]
output_bboxes[xi] = F.pad(x[i], (0,0,0, bbox_pad_nums), value=0)

REFERENCES

### 部署 YOLOv5 模型于 Windows 系统 #### 准备工作 为了在 Windows 上部署 YOLOv5 模型,需完成以下准备工作。首先确认已安装 `Git` 和 Python 的适当版本(建议使用 Python 3.8 或更高版本)。可以通过命令 `protoc --version` 来验证 Protocol Buffers 编译器是否正确安装并返回其版本号[^1]。 #### 克隆项目仓库 通过 Git 命令获取指定版本的 YOLOv5 源码。如果目标是特定版本(如 v6.1),可以执行以下命令来克隆代码库: ```bash git clone -b v6.1 https://github.com/ultralytics/yolov5.git ``` 此操作会下载对应分支的源码文件[^2]。对于其他版本需求(例如 v7.0),只需调整 `-b` 参数至所需标签即可。 #### 安装依赖项 进入刚创建好的 yolov5 文件夹目录下运行 pip 工具自动解析和加载所需的 python 库包: ```bash cd yolov5 pip install -r requirements.txt ``` #### 获取预训练权重 官方提供了多种不同大小以及精度水平下的预训练模型供用户选择下载。以 COCO 数据集为例,默认情况下可以直接从网络拉取最新版的 pt 格式的参数文件;当然也可以手动访问 [release 页面](https://github.com/ultralytics/yolov5/releases/) 找到适合自己的具体型号链接再单独保存下来[^3]。 #### 测试环境配置 确保 GPU 加速功能正常开启 (如果有 NVIDIA 显卡的话),这通常涉及到 CUDA Toolkit 及 cuDNN SDK 的额外设置过程。另外值得注意的是,在某些特殊场景里可能还需要借助 TensorRT 技术进一步优化性能表现——比如参考 Wang Xinyu 提供的相关实现方案。 #### 推理流程概述 当一切准备就绪之后就可以调用 detect.py 脚本来启动图像检测任务了。下面给出一段简单的例子展示基本用法: ```python from pathlib import Path import torch from models.common import DetectMultiBackend from utils.dataloaders import IMG_FORMATS, VID_FORMATS, LoadImages, LoadStreams from utils.general import LOGGER, check_file, increment_path, non_max_suppression, scale_coords, xyxy2xywh from utils.plots import Annotator, colors, save_one_box from utils.torch_utils import select_device, time_sync weights='yolov5s.pt' # model path or triton URL source='./data/images/zidane.jpg' device='' # cuda device, i.e. 0 or 0,1,2,3 or cpu imgsz=(640, 640) # inference size (height, width) # Initialize device = select_device(device) model = DetectMultiBackend(weights, device=device, dnn=False, data=None, fp16=False) stride, names, pt = model.stride, model.names, model.pt imgsz = check_img_size(imgsz, s=stride) # check image size dataset = LoadImages(source, img_size=imgsz, stride=stride, auto=pt) bs = 1 # batch_size for path, im, im0s, vid_cap, s in dataset: t1 = time_sync() im = torch.from_numpy(im).to(device) im = im.half() if model.fp16 else im.float() # uint8 to fp16/32 im /= 255 # 0 - 255 to 0.0 - 1.0 if len(im.shape) == 3: im = im[None] # expand for batch dim pred = model(im, augment=False, visualize=False) ... ``` 上述脚本片段展示了如何加载自定义图片作为输入数据,并利用已经初始化完毕的对象来进行预测分析[^5]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值