YOLOV5 optimization on Triton Inference Server
在Triton中部署yolov5目标检测服务, 并分别进行了如下优化:
其中Pipelines分别通过Ensemble和BLS两种方式来实现,Pipelines的infer模块是基于上述1中精简后的TensorRT Engine部署, Postprocess模块则通过Python Backend实现, 工作流参考如何部署Triton Pipelines
Environment
- CPU: 4cores 16GB

本文介绍在Triton中部署yolov5目标检测服务并进行优化,包括轻量化Detect层Output、集成BatchedNMSPlugin等。还给出环境信息,通过Perf_analyzer对比三种部署方式性能,显示不同部署方式在不同并发数下的性能表现,最后列出参考资料。
最低0.47元/天 解锁文章
209

被折叠的 条评论
为什么被折叠?



