嵌入式Linux平台部署AI神经网络模型Inference的方案

本文介绍了多种用于嵌入式Linux平台的AI神经网络Inference引擎,包括ONNX、TensorRT、MNN、ncnn、TVM、TensorFlow Lite、ArmNN、Tengine、Tengine-lite、Mace、Paddle-Mobile和OpenCV dnn。这些引擎支持ARM CPU和GPU的算力资源调度,部分还支持RTOS系统。TensorRT适合NVIDIA平台,MNN在性能上有优势,ncnn专注Android,TVM采用编译方法部署,而OpenCV dnn依赖于opencv,适用于传统视觉与AI神经网络结合的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ONNX

  • 简述
    ONNX是一种AI神经网络模型的通用中间文件保存方法(可以理解成AI世界的XML),各种AI框架,Inference引擎,甚至OpenCV里面的dnn onnx相关的模块都可以解析ONNX文件并生成特定平台和运行框架所支持的神经网络模型。ONNX本身不是AI神经网络运行框架,只是AI神经网络模型通用中间描述文件格式

  • GitHub链接
    https://github.com/onnx/onnx

  • 编程语言
    C++ / Python

  • 热度
    ★★★★★

TensorRT

  • 简述
    TensorRT是NVIDIA家的开源AI神经网络Inference引擎,支持解析和转换ONNX格式的神经网络模型部署到支持CUDA的GPU上运行。目前TensorRT仅支持在NVIDIA家的产品部署AI神经网络模型,支持的平台有NVIDIA各种支持CUDA 9.0以上的显卡,嵌入式SOC平台(Jetson TX1/TX2/Nano/Xavier 等)

  • GitHub链接

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Charmve

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值