目录
2.4版本导出Android PaddleLite nb文件成功:
导出ncnn成功
步骤:先导出inference,再导出onnx,最后导出ncnn模型
1.导出inference
```
# -c 后面设置训练算法的yml配置文件
# -o 配置可选参数
# Global.pretrained_model 参数设置待转换的训练模型地址,不用添加文件后缀 .pdmodel,.pdopt或.pdparams。
# Global.save_inference_dir参数设置转换的模型将保存的地址。
python tools/export_model.py -c configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml -o Global.pretrained_model=./ch_lite/ch_ppocr_mobile_v2.0_det_train/best_accuracy Global.save_inference_dir=./inference/det_db/
```
python tools/export_model.py -c ./configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0_kuaidi.yml -o Global.pretrained_model=./tools/output/ch_db_mv3_train/best_accuracy Global.save_inference_dir=./inference/det_db/

本文详细介绍了如何将PaddleOCR模型导出为ncnn格式,并在Android设备上使用PaddleLite进行推理。首先,通过paddle2onnx将模型从inference格式转换为onnx,然后使用ncnn工具将onnx模型转为ncnn的param和bin文件。接着,提供了Android PaddleLite的模型资源路径和2.4版本导出nb模型的方法。最后,讨论了不同模式下的摄像头、读图和CPU/GPU推理配置。
订阅专栏 解锁全文
4268





