ONNX
-
简述
ONNX是一种AI神经网络模型的通用中间文件保存方法(可以理解成AI世界的XML),各种AI框架,Inference引擎,甚至OpenCV里面的dnn onnx相关的模块都可以解析ONNX文件并生成特定平台和运行框架所支持的神经网络模型。ONNX本身不是AI神经网络运行框架,只是AI神经网络模型通用中间描述文件格式 -
GitHub链接
https://github.com/onnx/onnx -
编程语言
C++ / Python -
热度
★★★★★☆
TensorRT
-
简述
TensorRT是NVIDIA家的开源AI神经网络Inference引擎,支持解析和转换ONNX格式的神经网络模型部署到支持CUDA的GPU上运行。目前TensorRT仅支持在NVIDIA家的产品部署AI神经网络模型,支持的平台有NVIDIA各种支持CUDA 9.0以上的显卡,嵌入式SOC平台(Jetson TX1/TX2/Nano/Xavier 等) -
GitHub链接