Ubuntu 22.04完整安装Xinference及解决依赖报错

Ubuntu 22.04完整安装Xinference及解决依赖报错

注:文中使用的环境为Ubuntu 22.04 LTS + CUDA 12.4.1

1、创建conda环境

conda create -n xinference python==3.11 -y
conda activate xinference

2、安装Xinference

pip install "xinference[all]"

3、解决报错

Pytorch报错

根据Pytorch安装指引进行安装,重新执行命令即可。注意,一定要在Pytorch网站上按照你的系统和CUDA版本等选择。使用pip即可。例:

pip3 install torch torchvision torchaudio
pip install "xinference[all]"

llama-cpp-python报错

当报错ERROR: Failed building wheel for llama-cpp-python时,需要手动修补环境并重新安装llama-cpp-python。这个问题比较复杂。按步骤操作即可修复:

  • 修复构建工具链

    sudo add-apt-repository ppa:ubuntu-toolchain-r/test
    sudo apt update
    sudo apt install gcc-11 g++-11
    sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-11 60 --slave /usr/bin/g++ g++ /usr/bin/g++-11
    pip install --upgrade pip
    pip install --upgrade setuptools wheel
    sudo apt-get install build-essential
    sudo apt-get install libgomp1
    
  • 检查并更新环境变量

    export PATH=/usr/local/cuda-12.4/bin:$PATH
    export LD_LIBRARY_PATH=/usr/local/cuda-12.4/lib64:/usr/local/cuda-12.4/extras/CUPTI/lib64:/usr/local/cuda-12.4/targets/x86_64-linux/lib:/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH
    
  • 重新安装

    pip install llama-cpp-python --verbose
    pip install "xinference[all]"
    
### 在 CentOS 上安装 Xinference 为了在 CentOS 上成功部署 Xinference,需遵循一系列配置步骤以确保环境适配并能稳定运行该软件。 #### 准备开发工具链 对于编译依赖项或其他可能需要的操作,在 CentOS 中推荐使用 Red Hat Software Collections (SCL),这允许用户访问较新的版本而不影响系统的稳定性。通过执行如下命令可以设置 GCC 编译器至所需版本: ```bash yum install centos-release-scl && yum install devtoolset-11-gcc* && scl enable devtoolset-11 bash && gcc -v[^1] ``` 此操作会安装 DevToolset-11 并激活它作为当前 shell 会话中的默认编译器集合。 #### 创建合适的 Python 环境 Xinference 需要一个特定版本的 Python 来保证兼容性和性能表现。官方建议至少具备 Python 3.9 版本以上,并且特别指出了 Python 3.11 是可行的选择之一。利用 Conda 可以为项目建立隔离的工作空间,从而简化包管理和跨平台支持的问题。下面是如何创建名为 `xinference` 的 Python 3.11 虚拟环境的过程: ```bash conda create --name xinference python=3.11 conda activate xinference ``` 上述指令将基于 Miniconda 或 Anaconda 构建一个新的虚拟环境中,其中包含了指定版本的解释器和其他必要的组件[^2]。 #### 获取并安装 Xinference 应用程序 完成前期准备工作之后,下一步是从 GitHub 下载最新发布的 Xinference 发行版或克隆仓库到本地机器上进行自定义构建。考虑到直接从源码安装可能会涉及到更多复杂的依赖关系处理,通常更倾向于采用预打包的形式来进行分发。具体做法取决于个人偏好以及是否有特殊定制需求;如果是常规情况,则可以直接参照官方说明文档获取二进制文件或者 pip 安装方式。 由于具体的安装指南未在此处提供详细的指引,因此强烈建议查阅 [Xinference GitHub 页面](https://github.com/xorbitsai/inference)[^3]上的 README 文件或者其他相关资源来获得最准确的信息和支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值