YOLOV8部署在jetson中--onnx转换为.engine文件
一、首先将我们训练好的模型导出为onnx格式的权重文件,这一步是在自己的电脑上或者服务器上进行的,如导出yolov5的onnx文件是在yolo官方代码的export.py文件进行操作的。在导出了onnx文件之后就可以将onnx文件拿到自己的板子上。其中要注意模型的输入和输出的name,在后续推理的时候会用到。其中fp16是对模型参数进行了量化加速,从fp32->fp16,也可以尝试进行int8量化,但最后预测的精度会降低。须知:该系列默认是在烧录好nvidia官方系统的jetson板子上操作的。
原创
2024-04-17 16:28:54 ·
1773 阅读 ·
0 评论