更新:
1)因为MS把onnxruntime从github迁移到一个独立的网址了,所以下面的一些链接都指向不对了,需要到ONNX Runtime (ORT) - onnxruntime里去找对应的内容,可能是MS自己都对自己的文档组织太乱看不下去了,迁移到独立网址后重新整理了一下,比原来有条理了,但是对于初学者可能还是感到发懵 :)
2)对于python版的onnxruntime,Links for onnxruntime 这里有whl安装文件下载。
因为做模型精度损失的对比需要,上个月用过了MS家的onnxruntime (GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator),一如MS的产品风格,要求不高的小项目用还凑合,不要指望有多高的性能能用在大规模项目上,不过它有个好处就是支持了多种OS和CPU,支持多种语言,常用的python和C/C++版都能很快用起来,用来在多个不同硬件平台上做

本文介绍了如何在Jetson Nano上从源码编译Onnxruntime,并针对多核支持和TensorRT集成进行详细步骤,包括依赖安装、CMake配置和编译过程。重点在于解决初学者在官方文档中遇到的混乱,以及如何合理搭配Provider以优化性能。
最低0.47元/天 解锁文章
1383





