深度模型部署 **先看我的测试结果是这样的** 一 intel 系列 openvino opencv 二 nvidia dGPU / jetson tensorRT 编译安装 demo测试 量化训练 deepstream / jetson jetson-inference / jetson 三 ARM-cpu paddleLite / raspberry pi 3b+ MNN NCNN TNN tengine 四 NPU rk1808s2 --- rknn 框架 华为 NPU 五 FPGA pynq-z2 六 DSP 七 MCU 八 ros 先看我的测试结果是这样的 模型测试结果 一 intel 系列 intel x86 cpu intel-fpga openvino 模型加速效果很好 编译安装 测试模型 opencv 编译安装 测试模型 二 nvidia dGPU / jetson tensorRT 编译安装 demo测试 yolo ssd 量化训练 deepstream / jetson jetson-inference / jetson 三 ARM-cpu <