高性能部署Yolov5 Triton service

YOLOV5 optimization on Triton Inference Server

在Triton中部署yolov5目标检测服务, 并分别进行了如下优化:

  1. 轻量化Detect层的Output
  2. 集成TensorRT的BatchedNMSPlugin到engine中
  3. 通过Triton Pipelines部署

其中Pipelines分别通过EnsembleBLS两种方式来实现,Pipelines的infer模块是基于上述1中精简后的TensorRT Engine部署, Postprocess模块则通过Python Backend实现, 工作流参考如何部署Triton Pipelines

相关代码链接


Environment

  • CPU: 4cores 16GB
  • GPU: Nvidia Tesla T4
  • Cuda: 11.6
  • TritonServer: 2.20.0
  • TensorRT: 8.2.3
  • Yolov5: v6.1

Benchmark

一台机器部署Triton Inference Server, 在另外一台机器上通过Perf_analyzer通过gRPC调用接口, 对比测试BLS PipelinesEnsemble PipelinesBatchedNMS这三种部署方式在并发数逐渐增加条件下的性能表现。

  • 生成真实数据

    python generate_input.py --input_images <image_path> ----output_file <real_data>.json
    
  • 利用真实数据进行测试

    perf_analyzer  -m <triton_model_name>  -b 8  --input-data <real_data>.json  --concurrency-range 1:10  --measurement-interval 10000  -u <triton server endpoint> -i gRPC  -f <triton_model_name>.csv
    

数据显示BatchedNMS这一方式整体性相对更好,更快在并发数较大的情况下收敛到最优性能,在低时延下达到较高的吞吐; 而Ensemble PipelinesBLS Pipelines则在并发数较小时性能更好,但是随着并发数的增加,性能下降的幅度更大。

请添加图片描述

选取了六个指标进行对比,每个指标均通过处理,并归一化到0-1区间,数值越大表示性能越好。每个指标的原始释义如下:

  • Server Queue: 数据在Triton队列中的等待时间
  • Server Compute Input: Triton处理Input Tensor的时间
  • Server Compute Infer: Triton执行推理的时间
  • Server Compute Output: Triton处理Output Tensor的时间
  • latency: 端到端延迟的90分位数
  • throughput: 吞吐

请添加图片描述


REFERENCES

### 部署 YOLOv5 模型于 Windows 系统 #### 准备工作 为了在 Windows 上部署 YOLOv5 模型,需完成以下准备工作。首先确认已安装 `Git` 和 Python 的适当版本(建议使用 Python 3.8 或更高版本)。可以通过命令 `protoc --version` 来验证 Protocol Buffers 编译器是否正确安装并返回其版本号[^1]。 #### 克隆项目仓库 通过 Git 命令获取指定版本的 YOLOv5 源码。如果目标是特定版本(如 v6.1),可以执行以下命令来克隆代码库: ```bash git clone -b v6.1 https://github.com/ultralytics/yolov5.git ``` 此操作会下载对应分支的源码文件[^2]。对于其他版本需求(例如 v7.0),只需调整 `-b` 参数至所需标签即可。 #### 安装依赖项 进入刚创建好的 yolov5 文件夹目录下运行 pip 工具自动解析和加载所需的 python 库包: ```bash cd yolov5 pip install -r requirements.txt ``` #### 获取预训练权重 官方提供了多种不同大小以及精度水平下的预训练模型供用户选择下载。以 COCO 数据集为例,默认情况下可以直接从网络拉取最新版的 pt 格式的参数文件;当然也可以手动访问 [release 页面](https://github.com/ultralytics/yolov5/releases/) 找到适合自己的具体型号链接再单独保存下来[^3]。 #### 测试环境配置 确保 GPU 加速功能正常开启 (如果有 NVIDIA 显卡的话),这通常涉及到 CUDA Toolkit 及 cuDNN SDK 的额外设置过程。另外值得注意的是,在某些特殊场景里可能还需要借助 TensorRT 技术进一步优化性能表现——比如参考 Wang Xinyu 提供的相关实现方案。 #### 推理流程概述 当一切准备就绪之后就可以调用 detect.py 脚本来启动图像检测任务了。下面给出一段简单的例子展示基本用法: ```python from pathlib import Path import torch from models.common import DetectMultiBackend from utils.dataloaders import IMG_FORMATS, VID_FORMATS, LoadImages, LoadStreams from utils.general import LOGGER, check_file, increment_path, non_max_suppression, scale_coords, xyxy2xywh from utils.plots import Annotator, colors, save_one_box from utils.torch_utils import select_device, time_sync weights='yolov5s.pt' # model path or triton URL source='./data/images/zidane.jpg' device='' # cuda device, i.e. 0 or 0,1,2,3 or cpu imgsz=(640, 640) # inference size (height, width) # Initialize device = select_device(device) model = DetectMultiBackend(weights, device=device, dnn=False, data=None, fp16=False) stride, names, pt = model.stride, model.names, model.pt imgsz = check_img_size(imgsz, s=stride) # check image size dataset = LoadImages(source, img_size=imgsz, stride=stride, auto=pt) bs = 1 # batch_size for path, im, im0s, vid_cap, s in dataset: t1 = time_sync() im = torch.from_numpy(im).to(device) im = im.half() if model.fp16 else im.float() # uint8 to fp16/32 im /= 255 # 0 - 255 to 0.0 - 1.0 if len(im.shape) == 3: im = im[None] # expand for batch dim pred = model(im, augment=False, visualize=False) ... ``` 上述脚本片段展示了如何加载自定义图片作为输入数据,并利用已经初始化完毕的对象来进行预测分析[^5]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值