目前移动端常见的部署神经网络模型格式有onnx,也有ncnn,或者直接使用torch运行时执行pt文件,今天简单的讲一下如何直接部署onnx格式的yolov8模型,相比ncnn格式的转换,onnx模式不需要繁琐的手动下载第三方库,吐槽一下ncnn准备步骤实在是又臭又长,对萌新极不友好。
先声明本文不包括java版的NMS数据清理,如有需要,自己照下面文章的python代码自行转换
首先,我们已经有了yolov8模型的onnx格式,转换详情见我下面的文章pytorch下yolov8打包onnx模型并使用NMS对数据清洗(最后有完整代码)_onnx runtime + yolo + pytroch-优快云博客https://blog.youkuaiyun.com/qq_64809150/article/details/140436333?spm=1001.2014.3001.5501
目录
一、导入第三方依赖:
implementation 'com.microsoft.onnxruntime:onnxruntime-android:latest.release'
将上述代码添加至build.gradle中的dependencies下面