目录
1. Triton介绍
NVIDIA Triton推理服务器是NVIDIA推出的开源推理框架,主要为用户提供在云和边缘推理上部署的解决方案。

NVIDIA Triton 推理服务器 具有以下的特性:
- 支持多种开源框架的部署,包括TensorFlow/PyTorch/ONNX Runtime/TensorRT 等,同时也支持用户提供自定义的服务后端(backend);
本文介绍了如何使用NVIDIA Triton推理服务器部署Yolov5s模型,包括Triton的特性、服务端和客户端的部署步骤,以及模型转换和INT8量化配置等细节。
目录
NVIDIA Triton推理服务器是NVIDIA推出的开源推理框架,主要为用户提供在云和边缘推理上部署的解决方案。

NVIDIA Triton 推理服务器 具有以下的特性:
1301
1191
2328
2204