晟腾A200DK开发板移植Yolov8(3)

移植分为pt->onnx->om三步,我们今天先来讲解第二步onnx->om

1)设置环境变量(请确认install_path路径是否正确);

 bash . /usr/local/Ascend/ascend-toolkit/set_env.sh 

上述示例为Ascend-cann-toolkit开发套件包默认安装路径,请根据实际安装路径修改。

2)执行以下命令转换yolov8n模型:

atc \
--output_type=FP32 \
--input_shape="images:1,3,640,640"  \
--input_format=NCHW \
--output="yolov8n" \
--soc_version=Ascend310B1 \
--insert_op_conf=insert_op.cfg \
--framework=5 \
--model="yolov8n.onnx" \

atc参数含义:

atc: 命令行工具,用于将模型转换为适用于芯片处理器的模型格式。

--input_shape="images:1,3,640,640":每次推理一张图像,3通道,图像大小为640*640。input_shape需要与image_list的量化校准文件数据匹配。

--input_format=NCHW: 指定模型输入的数据格式为NCHW或NHWC

N:每次推理输入图像的数目。

C:Channels,图像通道,例如

### 腾A200DK设备后台启动程序与开发 #### 设备网络配置 对于腾A200DK开发板,在开始任何复杂的操作之前,确保基本设置已经完成。例如,通过编辑`/etc/netplan/01-netcfg.yaml`来配置IP地址可以使得后续的操作更加顺利[^1]。 #### 编译驱动程序 为了使硬件能够正常工作,可能需要编译特定版本的驱动程序。这可以通过执行命令`make -C /home/<路径>/Ascend310B-sdk/Ascend310B-source/driver/kernel/linux-4.19 ARCH=arm64`实现,其中`<路径>`应替换为实际存储SDK的位置[^2]。 #### 使用MindStudio工具简化流程 当涉及到更高级别的应用部署时,比如YOLOv8这样的深度学习模型,可以利用MindStudio工具来进行转换和其他必要的准备工作。这种方法不仅限于YOLO系列模型,也适用于其他类型的神经网络迁移至腾平台上的场景[^4]。 #### 导出ONNX格式模型 如果目标是在腾平台上运行YOLOv8或其他兼容框架,则通常会先将原始训练好的PyTorch (.pt) 文件导出成ONNX格式。此过程可通过Python脚本完成,如下所示: ```python from ultralytics import YOLO model = YOLO(&#39;./weights/yolov8n.pt&#39;) # 替换为你自己的权重文件位置 path = model.export(format="onnx", opset=12) ``` 这段代码片段展示了如何创建一个新的`.py`文件并调用相应的方法以保存转换后的模型到指定目录下[^5]。 #### 主应用程序集成 最后一步涉及修改主应用程序逻辑,以便加载新生成的ONNX模型以及处理输入数据流(如RTSP)。这部分工作主要集中在调整源码中的参数设定部分,例如在`main.cpp`里指明模型的具体存放地点及其关联的数据来源[^3]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值