deepseek本地部署教程

第一步:进入Ollama官网 (Download Ollama on macOS),下载ollama(注意需要Window10或更高的版本),安装(OllamaSetup.exe),默认在c盘。

 (1)、(非步骤)清华大学deepseek使用手册104页pdf:免费下载地址:

https://download.youkuaiyun.com/download/m0_63755691/90374725
(2)、(非步骤)将 DeepSeek 大模型能力接入各类软件文档:免费下载地址:

https://download.youkuaiyun.com/download/m0_63755691/90377554

 

第二步:点击Models,再点击

### DeepSeek 本地部署教程 #### 环境准备 ##### 硬件需求 最低配置为 CPU 支持 AVX2 指令集,配备 16GB 内存以及至少 30GB 的存储空间。为了获得更佳性能,建议采用 NVIDIA GPU(如 RTX 3090 或更新型号),搭配 32GB 内存和不少于 50GB 存储的空间[^1]。 ##### 软件依赖 操作系统应选择 Windows、macOS 或 Linux 中的一种。当计划使用 Open Web UI 进行交互时,则需预先安装 Docker 工具。 #### 安装方法 ##### 使用 LM Studio 部署 - **下载并安装 LM Studio**:前往官方页面获取对应操作系统的最新版 LM Studio 并完成常规安装过程。 - **下载 DeepSeek R1 模型**:启动 LM Studio 后转至 Discover 页面搜索 "DeepSeek R1" 关键词。对于搭载 Apple 处理器的设备,请确认已勾选 MLX 参数;而对于基于 Windows 和 Linux 的平台则选取 GGUF 版本进行下载[^2]。 - **加载模型文件**:一旦下载完毕,在 Local Models 列表内定位到刚获取的 DeepSeek R1 条目并通过点击 Load 实现加载动作。 - **激活本地服务端口**:切换回 Developer 分区执行 Start Server 命令直至可通过浏览器正常访问 `http://localhost:1234` 地址表明一切顺利运作中。 ##### 使用 Ollama 方式部署 - **获取并设置 Ollama 应用程序**:参照官方网站指引取得适用于当前计算节点架构类型的安装包,并依照提示逐步推进直到最终确立其可用状态——即通过命令行工具验证返回预期版本信息(例如显示 ollama version is 0.5.6 表明成功)即可。 ```bash ollama --version ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值