文章目录
介绍
ONNX 是神经网络模型互操作性的开放标准格式。它还有一个ONNX Runtime,能够使用不同的执行提供程序(例如 CPU、CUDA、TensorRT 等)执行神经网络模型。虽然有很多使用 ONNX Runtime Python API 运行推理的示例,但使用的示例ONNX 运行时 C++ API 非常有限。
在这篇博文中,我想讨论如何使用 OpenCV C++ API 进行图像处理并使用 ONNX Runtime C++ API 运行推理。
环境准备
- opencv
- onnxruntime-gpu
- onnxruntime-gpu-tensorrt
手动编译onnxruntime参考这里。
如果不需要使用tensorrt的话,建议使用官方release的库
举个例子,当前环境为Ubuntu18.04+GPU,下载