本地cherry 部署deepseek流程记录

教程链接

https://mp.weixin.qq.com/s/IKoBga2iKfpkdD4Qgy8iLg

步骤

下载ollama

cmd运行命令行

ollama run deepseek-r1:1.5b
ollama pull bge-m3

下载cherry

cherry-ai.com客户端
配置cherry
在这里插入图片描述
添加命令行下载好的模型1.5b
在这里插入图片描述
检查一下 等待检查成功
在这里插入图片描述
进入会话框 选中模型 进行会话 可分为线上和本地知识库倒数第四个标点亮就是本地知识库会话 本地知识库会话前先建立知识库 上传知识库资料文档
在这里插入图片描述

内容概要:本文档主要介绍了Intel Edge Peak (EP) 解决方案,涵盖从零到边缘高峰的软件配置和服务管理。EP解决方案旨在简化客户的入门门槛,提供一系列工具和服务,包括Edge Software Provisioner (ESP),用于构建和缓存操作系统镜像和软件栈;Device Management System (DMS),用于远程集群或本地集群管理;以及Autonomous Clustering for the Edge (ACE),用于自动化边缘集群的创建和管理。文档详细描述了从软件发布、设备制造、运输、安装到最终设备激活的全过程,并强调了在不同应用场景(如公共设施、工业厂房、海上油井和移动医院)下的具体部署步骤和技术细节。此外,文档还探讨了安全设备注册(FDO)、集群管理、密钥轮换和备份等关键操作。 适合人群:具备一定IT基础设施和边缘计算基础知识的技术人员,特别是负责边缘设备部署和管理的系统集成商和运维人员。 使用场景及目标:①帮助系统集成商和客户简化边缘设备的初始配置和后续管理;②确保设备在不同网络环境下的安全启动和注册;③支持大规模边缘设备的自动化集群管理和应用程序编排;④提供详细的密钥管理和集群维护指南,确保系统的长期稳定运行。 其他说明:本文档是详细描述了Edge Peak技术及其应用案例。文档不仅提供了技术实现的指导,还涵盖了策略配置、安全性和扩展性的考虑,帮助用户全面理解和实施Intel的边缘计算解决方案。
<think>好的,我现在需要回答用户关于如何在Cherry服务器上部署DeepSeek深度学习模型的问题。首先,我得仔细分析用户的需求。用户提到了Cherry服务器,可能是指使用Cherry Studio这个可视化工具进行部署,因为引用[3]中提到了Cherry Studio。 接下来,我需要回顾提供的引用内容。引用[3]提到可以使用Cherry Studio进行DeepSeek R1模型的本地部署,并提供了下载链接。引用[2]和[3]都涉及本地部署的方法,尤其是GGUF格式的模型文件和可视化界面。而引用[4]则提到API调用作为网页端不可用时的替代方案,但用户明确询问的是部署Cherry服务器,所以重点应放在本地部署Cherry Studio的使用上。 我需要确保步骤清晰,结构合理。首先,用户需要准备模型文件,可能需要从Hugging Face或ModelScope下载GGUF格式的模型,如引用[2]所述。然后安装Cherry Studio,按照引用[3]的指引进行操作。此外,可能还需要配置环境,比如Python和必要的库,确保兼容性。 还需要注意可能遇到的问题,比如服务器繁忙时使用API调用(引用[4]),但这里用户需要的是本地部署,所以可能不需要涉及API部分。但可以作为备选方案提及,如果有需要的话。 另外,要确保回答符合系统级指令,比如使用正确的LaTeX格式,但用户的问题不涉及数学公式,可能这部分应用较少。不过,生成的相关问题可能需要结构化,比如部署步骤、环境准备、常见问题等。 最后,生成的相关问题需要围绕部署的各个方面,比如环境配置、验证方法、与API调用的比较等,帮助用户进一步了解。</think>根据提供的引用信息,以下是关于在Cherry服务器上部署DeepSeek模型的详细步骤: ### 一、部署准备 1. **模型文件获取** 需从Hugging Face或ModelScope平台下载GGUF格式的DeepSeek模型文件[^2]。GGUF是专为本地推理优化的格式,支持CPU/GPU混合运算。 2. **环境要求** - 操作系统:Linux/Windows(推荐Ubuntu 22.04) - 硬件:至少16GB内存,NVIDIA GPU(显存≥8GB) - 软件:Python 3.8+,CUDA 11.7+ ### 二、通过Cherry Studio部署 1. **安装Cherry Studio** 访问[Cherry Studio官网](https://example.com/cherry-studio)下载对应版本,支持Windows/Linux客户端。安装后启动可视化界面[^3]。 2. **加载模型** ```bash # 在Cherry界面操作: 1. 点击"模型管理" → "导入模型" 2. 选择下载的GGUF文件(如deepseek-7b-chat.Q4_K_M.gguf) 3. 设置推理参数(量化等级、上下文长度等) ``` 3. **服务配置** ```python # 示例配置文件cherry_config.yaml server: host: 0.0.0.0 port: 5000 model: path: /models/deepseek-7b-chat.Q4_K_M.gguf n_gpu_layers: 20 # GPU加速层数 ``` 4. **启动服务** ```bash cherry-server start --config cherry_config.yaml ``` 服务启动后可通过`http://localhost:5000/api/v1/generate`进行调用。 ### 三、验证部署 使用CURL测试接口: ```bash curl -X POST "http://localhost:5000/api/v1/generate" \ -H "Content-Type: application/json" \ -d '{"prompt": "解释牛顿定律", "max_tokens": 200}' ``` ### 四、部署方案对比 | 方案 | 延迟 | 硬件成本 | 适用场景 | |-----------|------|------|----------------| | 本地部署+GPU | 低 | 高 | 高频调用/数据敏感场景 | | API调用 | 中 | 低 | 临时需求/无本地资源 | | 混合云 | 可变 | 中 | 弹性伸缩需求 |
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值