鲲鹏+昇腾部署DeepSeek-R1-Distill-Qwen-32B+Open-webui【信创国产化】(详细存档版)

参考文章:https://blog.youkuaiyun.com/taogumo/article/details/141932072
https://www.hiascend.com/software/modelzoo/models/detail/ed4a8911f1a74613a82dc50b1661208c
服务器配置:鲲鹏2920+1Atlas 300 I duo,内存128GB

1.前期准备

参考我之前部署Qwen-7b的文章:
鲲鹏服务器+昇腾卡(Atlas 300I pro)搭建DeepSeek-R1-Distill-Qwen-7B(自己存档详细版)
mindie:1.0.0-300I-Duo-py311-openeuler24.03-lts以及其他mindie镜像下载列表【昇腾社区】
模型下载:https://www.modelscope.cn/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B/files
感谢魔塔社区,昇腾社区,魔乐社区!

2.部署

下载启动open-webui

sudo docker run -d \
  -p 
### 部署环境准备 为了在鲲鹏和昇腾平台上成功部署 DeepSeek-R1-Distill-Qwen-32B 模型并集成 WebUI,需先准备好相应的软件包和支持库。确保操作系统已安装 Python 3.x 本以及 pip 工具。对于特定硬件的支持,需要安装 NPU 的驱动程序与 CANN (Compute Architecture for Neural Networks) SDK 来适配昇腾处理器[^1]。 ### 安装依赖项 通过命令行工具更新系统包管理器,并安装必要的 Python 库来支持模型加载和服务启动: ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cpu pip install transformers sentencepiece gradio flask ``` 上述命令会安装 PyTorch 及其扩展模块、Hugging Face Transformers 库用于处理预训练语言模型、SentencePiece 进行分词操作以及 Gradio 和 Flask 构建简易的 Web UI 接口。 ### 下载模型文件 前往 ModelScope 平台获取目标模型权重文件 `DeepSeek-R1-Distill-Qwen-32B` ,并将之放置于项目根目录下或指定路径内以便后续调用。 ### 编写服务脚本 创建一个新的 Python 文件作为入口点,在其中定义好 API 路由逻辑并与前端页面交互展示推理结果。下面是一个简单的例子说明如何实现这一功能: ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch import gradio as gr tokenizer = AutoTokenizer.from_pretrained("path/to/model") model = AutoModelForCausalLM.from_pretrained("path/to/model") def predict(text_input): inputs = tokenizer.encode_plus( text_input, add_special_tokens=True, return_tensors="pt" ) with torch.no_grad(): outputs = model.generate(**inputs) response = tokenizer.decode(outputs[0], skip_special_tokens=True) return response iface = gr.Interface(fn=predict, inputs='text', outputs='text') if __name__ == "__main__": iface.launch() ``` 此段代码实现了基于 Transformer 结构的语言生成任务接口,利用 Gradio 提供了一个简洁易用的文字输入框让用户提交待预测文本串,并返回经过 Qwen 大规模对话理解能力加工后的回复内容。 ### 启动应用 完成以上配置之后就可以运行该应用程序了。打开终端窗口进入包含 main.py 的工作空间执行 python 命令即可开启 HTTP Server 监听来自浏览器端发起请求的服务实例。
评论 37
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值