云轴科技ZStack+海光DCU:率先推出DeepSeek私有化部署方案

针对日益强劲的AI推理需求和企业级AI应用私有化部署场景(Private AI),云轴科技ZStack联合海光信息,共同推动ZStack智塔全面支持DeepSeek V3/R1/Janus Pro系列模型,基于海光DCU实现高性能适配,为企业提供安全可控的AI基础设施解决方案。

图片

随着DeepSeek系列模型的开源与广泛应用,ZStack智塔作为企业级私有化AI Infra平台,深度融合DeepSeek模型的高性能与海光DCU的算力优势,进一步推动AI技术在企业场景的规模化落地:

1. 全场景支持DeepSeek模型,精准匹配企业需求

ZStack智塔提供从模型开发到应用落地的全生命周期管理工具,率先实现对DeepSeek V3/R1/Janus Pro的私有化部署支持。其中,DeepSeek V3专注通用自然语言处理任务,R1面向复杂推理场景,Janus Pro则突破多模态理解与生成能力,全面覆盖企业多样化AI需求。

2. 海光DCU生态优势明显,释放国产算力潜能

海光DCU采用GPGPU通用加速计算架构,DeepSeek模型可直接在DCU上运行,无需大量适配工作。ZStack智塔通过智能异构调度引擎,实现DeepSeek模型与

内容概要:本文档是关于海光 DCU DeepSeek-R1/V3部署指南,发布于2025年5月9日。DeepSeek-R1和 DeepSeek-V3是深度求索公司开发的高性能自然语言处理模型,前者专注于复杂逻辑推理任务,后者为通用NLP模型。文档详细介绍了在海光 DCU部署 DeepSeek推理环境所需的步骤,包括基础环境依赖安装(如 DCU驱动和 Docker安装)、模型下载方式(推荐三种下载渠道:SCNet超算互联网、Huggingface、Modelscope)、不同型号 DCU的推理环境部署(针对 K100AI和 Z100/K100系列,使用 vllm、ollama、Pytorch框架)、以及 Webui+server可视化交互部署。此外,还提供了详细的命令行示例和环境变量设置说明。 适合人群:具备一定Linux系统管理和深度学习框架使用经验的IT技术人员或运维人员,特别是从事自然语言处理和AI模型部署的相关人员。 使用场景及目标:①为用户提供详细的步骤指导,确保在海光 DCU上顺利部署 DeepSeek模型;②帮助用户理解各个框架(vllm、ollama、Pytorch)的具体配置和使用方法;③提供模型下载和环境变量设置的详细说明,确保模型能够高效运行;④通过可视化交互工具(如 Anythingllm和 DCU智能助手),提升用户体验和操作便捷性。 其他说明:文档附带了丰富的参考链接,涵盖了从基础环境搭建到高级模型推理的各个方面,为用户提供全面的技术支持。同时,文档提供了多种模型下载渠道和预配置的 Docker镜像下载链接,便于用户快速获取所需资源。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值