DeepSeek-R1-Distill-Llama-70B + Dify (私有知识库)【鲲鹏+昇腾-国产化信创】

该文章已生成可运行项目,

配置

鲲鹏 2 * 920 + 4 * Atlas 300I duo (96G)
系统openEuler 22.03-LTS ,记得先安装好合适部署dify的docker和docker compose版本
可以参考openEuler 22.03 LTS (aarch64)系统上离线安装 Docker 27.5(或指定版本)和 Docker Compose
参考文章:https://www.hiascend.com/software/modelzoo/models/detail/ee3f9897743a4341b43710f8d204733a
感谢昇腾社区,魔搭社区

部署相关环境

根据我之前文章鲲鹏服务器+昇腾卡(Atlas 300I pro)搭建DeepSeek-R1-Distill-Qwen-7B(自己存档详细版)
创建相关容器

下载模型权重DeepSeek-R1-Distill-Llama-70B

DeepSeek-R1-Distill-Llama-70B

部署Dify

国内pull太慢,要更换docker国内源

sudo mkdir -p /etc/docker

sudo tee /etc/docker/daemon.json <<-'EOF'
{
    "registry-mirrors": [
    	"https://docker.m.daocloud.io",
    	"https://docker.imgdb.de",
    	"https://docker-0.unsee.tech",
    	"https://docker.hlmirror.com",
    	"https://docker.1ms.run",
    	"https://func.ink",
    	"https://lispy.org",
    	"https://docker.xiaogenban1993.com"
    ]
}
EOF

sudo systemctl daemon-reload && sudo systemctl restart docker

sudo docker pull hello-world

选择Docker Compose部署
在这里插入图片描述
dify官网部署手册
我docker版本和docker compose版本如下:
在这里插入图片描述

克隆 Dify 源代码至本地环境。
假设当前最新版本为 0.15.3
git clone https://github.com/langgenius/dify.git --branch 0.15.3
进入 Dify 源代码的 Docker 目录
cd dify/docker
复制环境配置文件
cp .env.example .env

启动 Docker 容器

如果版本是 Docker Compose V2,使用以下命令:
docker compose up -d
如果版本是 Docker Compose V1,使用以下命令:
docker-compose up -d

启动成功如下:
在这里插入图片描述

启动模型

在这里插入图片描述
记得参考我之前部署7B的文章启动模型
鲲鹏服务器+昇腾卡(Atlas 300I pro)搭建DeepSeek-R1-Distill-Qwen-7B(自己存档详细版)
参考:昇腾社区部署文章

Dify连接DeepSeek-R1-Distill-Llama-70B

选择openAI API接口,填入API和模型名称,记得要跟你config.json那个文件的模型名称一致
在这里插入图片描述

导入数据测试

在这里插入图片描述
在这里插入图片描述
测试没问题哈,就是回答慢了点,毕竟1秒也就几个字

本文章已经生成可运行项目
鲲鹏和昇腾平台上部署 **DeepSeek-R1-Distill-Llama-70B** 模型时,选择合适的镜像至关重要。以下是针对这两个平台的推荐方案: ### 三级标题:鲲鹏平台适配镜像推荐 鲲鹏平台基于ARM架构,对模型推理和训练的支持依赖于华为提供的工具链与优化库(如Ascend异构计算架构)。为了适配鲲鹏平台,建议使用华为云ModelArts或MindSpore生态中支持ARM架构的容器镜像。 - 推荐使用 **华为云ModelArts ARM64 镜像**,该镜像已集成PyTorch、TensorRT等深度学习框架,并经过鲲鹏芯片优化。 - 若需自行构建镜像,可基于 `swr.cn-north-4.myhuaweicloud.com/ascend/arm64-pytorch:latest` 进行扩展[^2]。 ### 三级标题:昇腾平台适配镜像推荐 昇腾AI平台主要依赖华为自研的CANN架构和MindSpore框架进行模型部署。对于 **DeepSeek-R1-Distill-Llama-70B** 的部署,推荐使用以下镜像: - 使用华为官方提供的 **Ascend PyTorch 镜像**:`swr.cn-north-4.myhuaweicloud.com/ascend/ascend-pytorch:23.0.RC2-base`,该镜像内置了对昇腾AI处理器的支持[^3]。 - 若使用 vLLM 或 HuggingFace Transformers 框架,可在上述镜像基础上安装相关依赖并启用 AWQ(Adaptive Weight Quantization)量化技术以提升推理效率。 ### 三级标题:模型优化建议 为提高 **DeepSeek-R1-Distill-Llama-70B** 在鲲鹏和昇腾平台上的推理性能,建议采取以下优化措施: - 启用 **AWQ量化** 技术,在保证精度的前提下显著降低模型推理延迟[^2]。 - 使用 **vLLM** 或 **TensorRT** 对模型进行加速推理部署- 设置 `--max-model-len` 参数以适应长文本处理需求,例如设置为 `32768` 以支持更长的上下文长度[^1]。 ### 示例命令(昇腾平台) ```bash # 下载并运行昇腾平台适配的镜像 docker run -it --device /dev/davinci0 \ swr.cn-north-4.myhuaweicloud.com/ascend/ascend-pytorch:23.0.RC2-base \ bash # 在容器内加载 DeepSeek-R1-Distill-Llama-70B 模型 vllm serve deepseek-ai/DeepSeek-R1-Distill-Llama-70B \ --tensor-parallel-size 2 \ --max-model-len 32768 \ --enforce-eager ``` ---
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值