虚拟机端编译及验证
方案一:.prototxt 配置方式 早期 TIDL SDK 中旧式方法
1.增加asr_model.prototxt文件和将 asr_model.onnx文件放置到对应位置
# 目录图
edgeai-tidl-tools/
├── models/
│ └── onnx/
│ └── asr_model.onnx
└── examples/
└── models/
└── prototxt/
└── asr_model.prototxt
# asr_model.prototxt
modelType = 1 # ONNX模型
numParamBits = 8 # 8-bit量化
quantizationStyle = 2 # 2 = 训练后量化 (Post-Training Quantization)
inputNetFile = "../../models/onnx/asr_model.onnx" # 你的ONNX模型路径
outputNetFile = "asr_model.bin"
outputParamsFile = "asr_model.params"
inDataNamesList = spec
outDataNamesList = logits
inputDimensions = 1, 1, 161, 200 # 固定输入shape: [NCHW]
numChannels = 1 # C=1
numRows = 161 # H
numCols = 200 # W
preprocType = 0 # 不做图像预处理
metaDataFile = meta_data.bin # 可留空,或者你生成一个量化校准文件(用于量化校准)
2.进入 TIDL 主目录执行:
cd edgeai-tidl-tools
./tools/tidl_model_import.out ./examples/models/prototxt/asr_model.prototxt
注意:执行后可能会遇到 modelType 参数重复和device_config.cfg 找不到 的问题,默认寻找路径是…/…/test/testvecs/config/import/,实际存在路径为./device_config.cfg,更改路径或复制到默认路径
方案二:YAML 模板导入流程 官方 edgeai-tidl-tools 的标准方法,新版本 SDK 更鼓励使用 YAML + run_import_on_pc.py
1.找到已有示例模板 run_import_on_pc.py
cd ~/edgeai-tidl-tools/examples/osrt_python
2.准备model_list.yaml 文件
在 examples/osrt_python/model_list/ 文件夹下,每一个 YAML 对应一个模型的导入配置。
🔧复制一个现有的配置(例如 mobilenet_v2.yaml):
cp model_list/mobilenet_v2.yaml model_list/asr_model.yaml
并修改如下关键字段:
model_path: ../../models/onnx/asr_model.onnx
input_data_path: ../../test_data/input/your_input_file # 可以随便写一个虚拟路径
preprocess:
mean: [0.0]
scale: [1.0]
chann

最低0.47元/天 解锁文章
48

被折叠的 条评论
为什么被折叠?



