Java 从业者必看!DeepSeek R1 本地部署全攻略(Ollama + Docker + OpenWebUI)

Java 从业者必看!DeepSeek R1 本地部署全攻略(Ollama + Docker + OpenWebUI)

在 AI 领域,DeepSeek R1 推理大模型自 2025 年 1 月发布以来,凭借其低成本和卓越性能,吸引了众多关注。对于追求数据安全、性能优化、个性化定制以及离线可用性的用户来说,本地部署无疑是一个理想选择。本文将手把手教你如何基于 Ollama、Docker 和 OpenWebUI 完成 DeepSeek R1 的本地部署,让你轻松踏入 AI 的大门!

在这里插入图片描述

1. 部署前的准备:软硬件需求大揭秘

1.1 硬件需求:你的电脑准备好了吗?

要想让 DeepSeek R1 在本地大展身手,硬件配置得先过关。以下是不同场景下的硬件推荐配置:

  • 基本推荐配置:CPU 8 核或以上,内存 32GB 或以上,存储 100GB SSD 或以上,GPU NVIDIA GTX 1080 或同等性能。这相当于给 DeepSeek R1 准备了一间 “普通单间”,能满足日常的运行需求。
  • DeepSeek - 7B 推荐配置:RTX 3060 以上显卡 + 16G 以上内存 + 50G SSD 存储空间。这就像是为模型升级到了 “舒适小套间”,能让 7B 模型更顺畅地运行。
  • DeepSeek - 70B 推荐配置:RTX 4060 以上显卡 + 32G 以上内存 + 200G SSD 存储空间。这绝对是 “豪华大别墅” 级别的配置,让 70B 模型有足够的空间施展拳脚。

本教程的硬件配置是:CPU Intel i5 - 12490/3.00GHz,内存 32GB,存储 500GB SSD,GPU NVIDIA GTX 3060,能较好地满足部署需求。

1.2 软件依赖:打好基础的 “地基”

软件环境同样关键,以下是 DeepSeek R1 本地部署所需的软件依赖:

  • 操作系统:Windows 10(本教程采用版本)
  • 编程语言:Python 3.8(本教程采用版本)
  • 深度学习框架:PyTorch 1.7(本教程采用版本)

这些软件就像是一砖一瓦,共同构建起 DeepSeek R1 运行的坚实基础。

2. Ollama:开启本地模型运行之旅

在这里插入图片描述

2.1 Ollama 的下载:找到你的 “模型管家”

Ollama 是一个开源的本地模型运行工具,能方便地下载和运行各种开源模型,如 Llama、Qwen、DeepSeek 等。它支持 macOS、Linux、Windows 操作系统,是本地模型部署的得力助手。

本教程选择 Ollama Windows 版本进行下载。下载完成后,你离拥有自己的本地模型就更近一步了!

2.2 Ollama 的安装:简单几步搞定

下载完成后,直接点击 OllamaSetup.exe 进行安装。安装过程十分简单,按照提示操作即可。安装完成后,在 cmd 命令行窗口输入 “ollama - v” 测试,若显示 ollama 的版本为 “0.5.7”,那就说明安装成功啦!这就像给你的电脑装上了一个新 “插件”,让它具备了运行本地模型的能力。

2.3 Ollama 的运行:后台静默守护

Ollama 没有华丽的用户界面,它在后台默默运行。打开浏览器,输入 “http://localhost:11434/”,若显示 “Ollama is running”,那就表示 Ollama 已经开始为你服务了。它就像一个忠诚的 “幕后助手”,随时准备响应你的模型运行需求。

3. DeepSeek - R1 模型安装:让 AI “大脑” 入驻

在这里插入图片描述

3.1 Ollama 安装 deepseek - r1 模型:挑选你的 “AI 大脑”

  • 查找模型:从 ollama 官网查找 deepseek - r1 模型。
  • 选择模型版本:deepseek - r1 提供多个版本,参数量越大,模型性能越强大,但对存储和计算资源的需求也越高。1.5b 模型参数为 15 亿 / 1.1GB,7b 模型参数约为 70 亿 / 4.7GB,14b 模型参数约为 140 亿 / 9GB。不同版本模型的执行命令也不同,例如 1.5b 的命令为 “ollama run deepseek - r1:1.5b”,7b 的命令为 “ollama run deepseek - r1:7b”,14b 的命令为 “ollama run deepseek - r1:14b”。建议新手先下载较小的 1.5b 模型,跑通教程后再根据硬件配置和需求安装合适版本。

本教程选择 7b 模型,在命令行窗口运行安装命令 “ollama run deepseek - r1:7b”,程序会自动下载和安装运行。默认安装地址是 “C:\Users%username%.ollama\models”,若想修改保存地址,可新建文件夹如 “C:\Model”,然后在系统环境变量添加系统变量:“变量名:OLLAMA_MODELS,变量值:C:\Model”。

安装完成后显示 “success”,这就意味着 deepseek - r1 模型已经成功入驻你的本地环境了!

3.2 使用 deepseek - r1 模型:开启对话之旅

在命令行窗口运行命令 “ollama run deepseek - r1:7b”,就可以在提示行输入,与 deepseek - r1 进行聊天了。输入 “/?”,还能获得帮助。不过,通过本地命令行窗口使用 deepseek - r1,交互体验相对较差,接下来我们继续安装 Docker 和 Open WebUI,让你能更便捷地与模型交流。

4. Docker:构建模型运行的 “小宇宙”

在这里插入图片描述

Docker 是一种虚拟化容器技术,基于镜像,可以秒级启动各种容器。每一种容器都是一个完整的运行环境,容器之间互相隔离,为模型运行提供了稳定、独立的空间。

4.1 检查安装环境:确保你的电脑支持 Docker

  • 检查虚拟化是否开启:打开任务管理器(Ctrl + Alt + Delete),选择:性能 - CPU - 虚拟化,确认 “虚拟化” 已启用。若未开启,需开机重启并进入 BIOS 进行设置:在 BIOS 选择:Advanced(高级)-- CPU Configuration – Secure Virtual Machine,设置为:Enabled(启用)。
  • 启用 Windows 功能:在 “控制面板” 打开 “程序”,然后点击 “启用或关闭 Windows 功能”,勾选 “Hyper - V 管理工具” 和 “Hyper - V 平台”。
  • 设置 WSL 版本:以管理员身份打开命令行窗口,输入 “wsl --set - default - version 2”,将默认设置为 WSL 2。通过适用于 Linux 的 Windows 子系统 (WSL),你可以在 Windows 上直接使用 Linux 应用程序、实用程序和 Bash 命令行工具。
  • 更新安装 wsl:在命令行窗口,输入 “wsl --update --web - download”,更新安装 wsl。

4.2 安装 Docker for Desktop:让 Docker “安家落户”

Docker Desktop 是 Docker 官方提供的桌面应用程序,旨在让开发者在 Windows 和 macOS 系统上轻松构建、运行和共享容器化应用程序。

  • 下载安装程序:从 Docker 官方下载 Docker 安装程序。
  • 完成安装:依照提示完成安装,安装时选择推荐设置。根据提示登录账号,如使用 GitHub 账号登录。
  • 检查安装是否成功:安装完成后,在 cmd 命令行窗口输入 “docker version”,若显示 docker 的版本为 “27.4.0”,那就说明安装成功了。

4.3 配置国内镜像源:解决连接超时问题

在命令行执行命令 “docker run hello - world” 时,可能会出现报错:“docker: Error response from daemon. (Client. Timeout exceeded while awaiting headers).” 这是因为 Docker 守护进程在尝试连接到 Docker Hub 时发生连接超时。别担心,我们可以使用国内的镜像源或者相关加速来解决这个问题。

  • 修改镜像源:进入 docker,选择 Settings – Docker Engine,将镜像源替换为:
    {
      "builder": {
        "gc": {
          "defaultKeepStorage": "20GB",
          "enabled": true
        }
      },
      "experimental": false,
      "features": {
        "buildkit": true
      },
      "registry-mirrors": [
        "https://docker.m.daocloud.io",
        "https://docker.1panel.live",
        "https://registry.docker-cn.com",
        "https://cr.console.aliyun.com",
        "https://mirror.ccs.tencentyun.com"
      ]
    }
    
  • 重启 Docker:点击 “Apply & restart”,重启 docker。重启后,再次执行命令 “docker run hello - world”,就可以成功拉取 hello - world 镜像并运行了。

5. Open WebUI:打造友好的交互界面

在这里插入图片描述

Open WebUI 是一个可扩展、功能丰富、用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。Open WebUI 适配了 Ollama 接口,提供了 web 的方式来访问 Ollama API,让你能更便捷地与 deepseek - r1 模型互动。

5.1 安装和启动 open - webui:一步到位

  • 打开项目仓库:打开 open - webui 项目的 Github 仓库 https://github.com/open-webui/open-webui
  • 找到安装命令:从 README 的安装指南找到用于 Ollama 的安装命令:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 执行命令:在命令行执行该 docker 命令,它会自动下载并安装 open - webui。

5.2 登录 Open - WebUI 进入 deepseek - r1:开启畅聊模式

  • 进入首页:在浏览器输入 “localhost:3000/auth” 或 “http://127.0.0.1:3000”,进入 Open - WebUI 首页。
  • 注册账号:注册账号密码,创建管理员账号。
  • 登录并使用:注册完成并登录后,你就会进入 deepseek - r1 模型的首页。现在,你就可以用本地部署的 deepseek - r1 模型进行聊天了,尽情享受 AI 带来的乐趣吧!

6. 实际应用案例:DeepSeek R1 的魅力展现

6.1 文本生成:创意写作的好帮手

DeepSeek R1 在文本生成方面有着出色的表现。比如,你可以给它一个主题,如 “未来城市的交通”,它就能快速生成一篇富有创意和逻辑性的文章。这对于需要进行创意写作的用户来说,是一个非常实用的工具,能够提供灵感和参考,帮助你更快地完成写作任务。

6.2 智能客服:24 小时在线解答

在智能客服领域,DeepSeek R1 也能大显身手。你可以将它集成到你的网站或应用中,让它作为智能客服,24 小时在线解答用户的问题。它能够理解用户的问题,并给出准确、详细的回答,提高用户满意度,降低人工客服的成本。

6.3 教育辅导:个性化学习助手

对于教育领域,DeepSeek R1 也能成为学生的个性化学习助手。它可以为学生提供各种学科的知识讲解、习题解答和学习建议。根据学生的学习进度和水平,它能够提供个性化的学习内容,帮助学生更好地掌握知识,提高学习成绩。

通过以上实际应用案例,你可以看到 DeepSeek R1 模型在不同领域的广泛应用和巨大潜力。它不仅能够提高工作效率,还能为我们的生活和学习带来更多的便利和乐趣。

通过以上步骤,你已经成功完成了 DeepSeek R1 的本地部署。在这个过程中,你不仅学会了如何使用 Ollama、Docker 和 OpenWebUI,还让自己的电脑拥有了强大的 AI 能力。快去探索更多 deepseek - r1 的应用场景吧,让 AI 为你的工作和生活增添更多色彩!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

真心喜欢你吖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值