DeepSeek 本地部署教程

为什么需要本地部署deepseek?

DeepSeek本地部署带来了多方面的优势,具体来说:

  1. 数据隐私保护‌:本地部署能确保数据不会离开你的服务器,所有的数据处理都在本地进行,这大大提高了数据的安全性,无需担心数据在网络传输过程中被泄露或窃取。
  2. 灵活性与定制性‌:你可以根据业务需求灵活调整模型的参数和功能,这种灵活性使得DeepSeek能够更好地适应各种应用场景。
  3. 离线使用能力‌:无需依赖网络,随时随地都能调用AI能力,这使得在一些网络不稳定或无法联网的环境下,DeepSeek仍然能够正常工作。
  4. 成本效益‌:长期来看,本地部署可能比云服务更经济,特别是对于高频调用场景。这有助于降低企业的运营成本。
  5. 性能优化‌:本地部署可以利用个人电脑的强大算力,让模型运行不再受网络速度的限制,从而获得更加流畅、高效的AI使用体验。同时,还可以通过启用GPU加速等方式,进一步提升模型的推理效率。
  6. 模型更新便捷‌:你可以随时根据自己的需求更新模型,确保始终使用最新版本,享受最新的功能和性能优化。

部署教程

1.安装 Ollama

Download Ollama on Windows

Ollama 是一个开源的本地模型运行工具,可以方便地下载和运行各种开源模型,比如 Llama、Qwen、DeepSeek 等。这个工具支持 Windows、MacOS、Linux 等操作系统。

2.下载并运行本地模型

ollama run deepseek-r1:1.5b

另附不同模型所需的算力需求:

测试一下:

常用命令:

#退出模型
>>> /bye
#查看模型
C:\Users\chk>ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    3 minutes ago
 
#启动模型
ollama run deepseek-r1:1.5b
>>>
#查看帮助
C:\Users\chk>ollama  -h
Large language model runner
 
Usage:
  ollama [flags]
  ollama [command]
 
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
 
Flags:
  -h, --help      help for ollama
  -v, --version   Show version information
 
Use "ollama [command] --help" for more information about a command.

3.UI部署

这里使用chatbox,简单高效!

第一步:下载Chatbox AI

Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

第二步:将 Chatbox 连接到远程 Ollama 服务

如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题

恭喜你部署完成,去探索独属于你的AI世界吧!

### DeepSeek 本地部署教程 #### 环境准备 ##### 硬件需求 最低配置为 CPU 支持 AVX2 指令集,配备 16GB 内存以及至少 30GB 的存储空间。为了获得更佳性能,建议采用 NVIDIA GPU(如 RTX 3090 或更新型号),搭配 32GB 内存和不少于 50GB 存储的空间[^1]。 ##### 软件依赖 操作系统应选择 Windows、macOS 或 Linux 中的一种。当计划使用 Open Web UI 进行交互时,则需预先安装 Docker 工具。 #### 安装方法 ##### 使用 LM Studio 部署 - **下载并安装 LM Studio**:前往官方页面获取对应操作系统的最新版 LM Studio 并完成常规安装过程。 - **下载 DeepSeek R1 模型**:启动 LM Studio 后转至 Discover 页面搜索 "DeepSeek R1" 关键词。对于搭载 Apple 处理器的设备,请确认已勾选 MLX 参数;而对于基于 Windows 和 Linux 的平台则选取 GGUF 版本进行下载[^2]。 - **加载模型文件**:一旦下载完毕,在 Local Models 列表内定位到刚获取的 DeepSeek R1 条目并通过点击 Load 实现加载动作。 - **激活本地服务端口**:切换回 Developer 分区执行 Start Server 命令直至可通过浏览器正常访问 `http://localhost:1234` 地址表明一切顺利运作中。 ##### 使用 Ollama 方式部署 - **获取并设置 Ollama 应用程序**:参照官方网站指引取得适用于当前计算节点架构类型的安装包,并依照提示逐步推进直到最终确立其可用状态——即通过命令行工具验证返回预期版本信息(例如显示 ollama version is 0.5.6 表明成功)即可。 ```bash ollama --version ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值