项目地址: Xorbitsai/inference
理论基础
正如同Xorbits Inference(Xinference)官网介绍是一个性能强大且功能全面的分布式推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地一键部署你自己的模型或内置的前沿开源模型。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。
介绍这个项目主要是为了后面在dify能够快速部署接入API。

下图是xinference的与其他开源集成大模型框架的对比,可以看到xinference相比于其他开源框架还是有很多有点的。而且本人使用下来发现确实上手简单,

本地搭建
本人使用的是autodl上,所以相对应的无论是在linxu还是windows系统都差不多
1 安装
安装的时候由于xinference直接安装的时候会装pytorch的cpu版本,所以装完之后还需要重新装一下GPU版本的torch
# 新建环境
conda create -n xinference python=3.10
# 激活环境
conda activate xinference
# 安装xinference所有包
pip3 in

最低0.47元/天 解锁文章
9417





