【代码】openvino api 推理代码及将onnx转.bin和.xml

该博客介绍了如何利用OpenVINO工具包进行模型推理,包括加载模型、预处理输入数据和执行推理。同时,还展示了如何将ONNX模型转换为OpenVINO的 Intermediate Representation (IR) 文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考文档:openvino api

# coding:UTF-8
import time
import cv2
import numpy as np

from openvino.runtime import Core


def openvino_inference(model_xml, model_bin, imgpath):
    
    # 初始化推理引擎并显示信息
    ie = Core()
    for device in ie.available_devices:
        device_name = ie.get_property(device_name=device, name="FULL_DEVICE_NAME")
        print(f"{
     device}: {
     device_name}")
     
    # 加载模型
    model = ie.read_model(model=model_xml, weights=model_bin)
    compiled_model = ie.compile_model(model=model,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值