【OpenVINO】C#调用OpenVINO部署Al模型项目开发-1.项目概述

该项目名为OpenVinoSharp,演示了如何在C#中利用Intel的OpenVINO™工具套件进行深度学习模型部署。支持Paddlepaddle飞桨、ONNX和IR模型。OpenVINO™2022.1提供了预处理API、ONNX前端API等新特性。项目通过C++编写接口并生成dll,供C#调用。用户需确保安装OpenVINO™2022.1版本。项目源码托管在Github和Gitee上。

1 项目概述

1.1 项目介绍

.
C#调用OpenVINOTM部署Al模型项目开发项目,简称OpenVinoSharp,这是一个示例项目,该项目实现在C#编程语言下调用Intel推出的 OpenVINO™ 工具套件,进行深度学习等Al项目在C#框架下的部署。该项目由C++语言编写OpenVINO™ API接口,并在C#语言下实现应用。
项目可以实现在C#编程语言下调用Intel推出的 OpenVINO™ 工具套件,进行深度学习等Al项目在C#框架下的部署,目前可以支持的Al模型格式:
 Paddlepaddle 飞桨模型 (.pdmodel)
 ONNX 开放式神经网络交换模型 (.onnx)
 IR 模型 (.xml, .bin)
目前该项目针对 Paddlepaddle飞桨现有模型进行了测试,主要有:
 PaddleClas 飞桨图像识别套件
 PaddleDetection 目标检测模型套件
.

1.2 OpenVINOTM

.
OpenVINOTM是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。支持在Windows与Linux系统,官方支持编程语言为Python与C++语言。
OpenVINOTM 工具套件2022.1版于2022年3月22日正式发布,根据官宣《OpenVINOTM迎来迄今为止最重大更新,2022.1新特性抢先看》,OpenVINOTM 2022.1将是迄今为止最大变化的版本。从开发者的角度来看,对于提升开发效率或运行效率有用的特性有:
 提供预处理API函数
 ONNX前端API
 AUTO 设备插件
 支持直接读入飞桨模型
该项目开发环境为OpenVINOTM 2022.1最新版本,因此使用者需在使用时将自己电脑上的OpenVINOTM 版本升级到2022.1版,不

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

椒颜皮皮虾྅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值