1. Tengine简介
Tengine于2017年在GitHub( https://github.com/OAID/Tengine )开源,是OPEN AI LAB(开放智能)推出的自主知识产权的边缘AI计算框架,致力于解决AIoT产业链碎片化问题,加速AI产业化落地。Tengine兼容多种操作系统和深度学习算法框架,简化和加速面向场景的AI算法在嵌入式边缘设备上快速迁移,以及实际应用部署落地,可以十倍提升基础开发的效率。Tengine一方面可以通过异构计算技术同时调用CPU、GPU、DSP、NPU 等不同计算单元来完成AI网络计算,另一方面,它支持TensorFlow、Caffe、MXNet 、PyTorch、 MegEngine、 DarkNet、ONNX、 ncnn 等业内主流框架,是国际上为数不多的通过ONNX官方认证的战略合作伙伴之一。Tengine产品架构如下图所示。

Tengine具有以下技术亮点:
为实现在众多 AIoT 应用中的跨平台部署,本项目基于原有 Tengine 项目使用 C 语言进行重构,针对嵌入式设备资源有限的特点进行了深度框架裁剪。同时采用了完全分离的前后端设计,有利于 CPU、GPU、NPU 等异构计算单元的快速移植和部署,同时降低评估和迁移成本。
1)

本文介绍了Tengine,一个开源的边缘AI计算框架,用于加速AI算法在嵌入式设备上的部署。Tengine支持多种硬件后端,如CPU、GPU、NPU,并具有高性能、异构切图、量化支持等技术亮点。在Jetson平台上编译Tengine的步骤包括下载源码、编译TensorRT版本以及升级CMake到3.13以上版本。
订阅专栏 解锁全文
396

被折叠的 条评论
为什么被折叠?



