本地部署DeepSeek

安装Ollama:OllamaGet up and running with large language models.https://ollama.com/安装完成后,点击运行,进入到终端中

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b

显存小的选择参数少的,我的是2G显存,选择1.5b参数的

复制命令,粘贴到终端中回车

在终端中使用很不方便

谷歌浏览器安装插件:Page Asist

显存太小,小参数本地模型不好使,还是用网页版吧

### 如何在本地部署 DeepSeek 为了提供详细的指导,在本地环境中部署 DeepSeek 需要遵循一系列配置和安装过程。虽然具体细节可能依赖于特定版本的 DeepSeek 和操作系统环境,下面给出了一般性的步骤说明。 #### 准备工作 确保计算机上已经安装了 Docker 及其相关组件,因为大多数现代机器学习平台都基于容器化技术构建[^1]。对于 Linux 用户来说,还需要确认内核参数设置正确以支持必要的功能特性。 #### 安装 Minikube 并启动单节点集群 Minikube 是一个用于创建轻量级 Kubernetes 单节点集群工具,非常适合开发测试用途。通过命令 `$ minikube start` 来初始化一个新的 K8s 实例;如果希望打开 Web UI 进行可视化管理,则可以执行 `minikube dashboard` 命令来访问默认浏览器中的仪表板界面[^3]。 #### 设置存储解决方案 考虑到 DeepSeek 的数据持久性和性能需求,建议采用分布式文件系统作为后端存储方案之一。例如 Ceph 提供了一个强大的对象、块以及文件系统的组合服务。针对 Debian 或 Ubuntu 发行版,可以通过添加官方源并利用包管理器完成 ceph-deploy 工具链的获取与安装操作[^2]。 #### 获取 DeepSeek 应用镜像 联系供应商或者查阅官方文档找到合适的 Helm Chart 资源库地址,从中拉取最新稳定版的应用程序映像到本地仓库中待后续部署使用。 #### 编写自定义资源配置清单 根据实际业务场景调整 YAML 文件里的各项参数选项,比如副本数量、资源请求限额等字段值,从而更好地适配目标硬件条件下的运行状况。 #### 执行应用发布流程 最后一步就是运用 kubectl CLI 向 API Server 发送指令提交之前准备好的描述性模板,触发自动化调度机制使得各个 Pod 成功上线至指定命名空间之下正常运作起来。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码成行

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值