ubuntu下安装 infer

本文详细介绍如何在Ubuntu系统中安装并配置OCaml环境,包括必要的依赖库和工具。通过一系列命令行操作,读者可以跟随步骤完成OCaml的安装及Opam包管理器的设置,进而安装所需的OCaml扩展库。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

sudo apt-get update
sudo apt-get upgrade
sudo apt-get install git openjdk-7-jdk m4 zlib1g-dev python-software-properties build-essential libgmp-dev libmpfr-dev libmpc-dev unzip
wget https://github.com/ocaml/opam/releases/download/1.2.2/opam-1.2.2-x86_64-Linux -O opam
chmod +x opam
./opam init --comp=4.01.0 #(then say 'y' to the final question)
eval `./opam config env`
./opam install extlib.1.5.4 atdgen.1.6.0 javalib.2.3.1 sawja.1.5.1 #(then say 'y' to the question)
```

If you do not require support for the C/Objective-C analysis in Infer,
and only wish to analyse Java files, continue with these
instructions. By the way, Java 1.8 is not supported.

```bash
cd infer
make -C infer java
export PATH=`pwd`/infer/bin:$PATH

分类:  ubuntu solve



本文转自wanqi博客园博客,原文链接:http://www.cnblogs.com/wanqieddy/p/4741463.html,如需转载请自行联系原作者


### OpenVINO 安装指南 Ubuntu 18.04 #### 准备工作 为了在Ubuntu 18.04上成功安装OpenVINO工具包,需先确认操作系统已更新至最新状态并安装必要的依赖项。这可以通过运行`sudo apt-get update && sudo apt-get upgrade`以及`sudo apt-get install -y cmake gcc g++ git python3-pip libusb-1.0-0-dev`来完成[^4]。 #### 下载OpenVINO Toolkit 前往官方网站获取适用于Linux系统的OpenVINO版本。下载链接位于页面底部的选择框内,选择适合的选项后会获得一个`.tgz`压缩文件。使用wget命令可以直接从终端下载该文件,例如:`wget https://registrationcenter-download.intel.com/akdlm/irc_nas/xxxx/l_openvino_toolkit_p_<version>.tgz` (请注意替换URL中的版本号)。 #### 解压与配置环境变量 解压所下载的tarball到指定目录下,通常建议放置于用户主目录中以便管理。接着按照提示执行脚本设置环境变量,使当前shell session能够识别新安装的库路径。具体操作如下所示: ```bash tar xf l_openvino_toolkit_p_*.tgz -C ~/intel/ cd ~/intel/openvino/install_dependencies/ ./install_NCS_udev_rules.sh # 如果计划使用Myriad X VPU则必需此步 source /opt/intel/openvino/bin/setupvars.sh pytohn3 echo 'source /opt/intel/openvino/bin/setupvars.sh' >> ~/.bashrc ``` #### 验证安装成果 最后一步是验证是否可以正常调用预训练模型进行推理测试。官方提供了几个简单的Python样例程序帮助开发者快速入门。进入`samples/python`文件夹找到名为`hello_query_device.py`的小例子尝试跑通它即可证明基本功能无误。 ```python import cv2 as cv from openvino.inference_engine import IECore, IENetwork ie = IECore() print(ie.get_versions('CPU')) net = ie.read_network(model="path_to_xml", weights="path_to_bin") exec_net = ie.load_network(network=net, device_name='CPU') input_blob = next(iter(net.input_info)) out_blob = next(iter(net.outputs)) res = exec_net.infer(inputs={input_blob: image}) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值