1. 🔧 背景与基础
-
SNPE 简介
-
Qualcomm 的神经网络推理引擎(Snapdragon Neural Processing Engine)
-
支持 CPU / GPU / DSP / NPU 后端
-
-
混合量化定义
-
不同层使用不同精度(如 INT8 + FP16)
-
提高性能的同时尽量减少精度损失
-
2. 🛠️ 模型准备
-
模型格式:ONNX、TFLite 或 PyTorch → 转为 DLC
-
使用 SNPE 提供的
snpe-onnx-to-dlc
工具-
示例:
bash
复制编辑
snpe-onnx-to-dlc --input_network model.onnx --output_path model.dlc
-