Windows搭建Docker+Ollama+Open-WebUI部署DeepSeek本地模型

Windows搭建Docker+Ollama+Open-WebUI部署DeepSeek本地模型

本文将详细介绍如何在 Windows 系统 上安装和使用 Docker+Ollama + Open-WebUI,这三个强大的工具将帮助您轻松管理和运行大型语言模型DeepSeek。Ollama 简化了模型的下载与部署,而 Open-WebUI 则提供了一个直观的图形用户界面,使用户能够更方便地与模型进行交互。

步骤 1:安装 Docker

(1)下载 Docker Desktop

  1. 访问 Docker 官方网站
  2. 点击“Download for Windows”按钮,下载 Docker Desktop 安装程序。
    在这里插入图片描述

(2)安装 Docker Desktop

  1. 双击下载的安装程序,按照提示完成安装。
  2. 安装完成后,启动 Docker Desktop。

(3)启用 WSL 2 后端(可选)

如果你使用的是 Windows 10 或更高版本,建议启用 WSL 2 后端以提高性能。

  1. 打开 Docker Desktop,进入“Settings” -> “General”,勾选“Use the WSL 2 based engine”。
  2. 进入“Resources” -> “WSL Integration”,启用你的 WSL 发行版。

(4)验证 Docker 安装

打开命令提示符或 PowerShell,输入以下命令:

docker --version

步骤 2:安装 Ollama

(1)下载 Ollama

  1. 访问 Ollama 官方网站GitHub 仓库,下载适用于 Windows 的 Ollama 安装程序。
    在这里插入图片描述

  2. 按照提示完成安装。

(2)验证 Ollama 安装

打开命令提示符或 PowerShell,输入以下命令:

ollama --version

如果显示 Ollama 版本信息,说明安装成功。

(3)下载 DeepSeek-V3 模型

在CMD命令提示符使用以下命令下载 DeepSeek-V3 模型:

ollama run deepseek-v3

等待模型下载完成。

在这里插入图片描述

(4)验证模型是否可用

使用以下命令测试模型:

ollama run deepseek-v3 "你好,DeepSeek-V3!"

如果模型返回响应,说明模型加载成功。

步骤 3:安装 Open WebUI

(1)拉取 Open WebUI Docker 镜像

Open WebUI 是一个用于与大模型交互的 Web 界面。使用以下命令拉取 Open WebUI 镜像:

docker pull ghcr.io/open-webui/open-webui:main

(2)运行 Open WebUI 容器

使用以下命令启动 Open WebUI 容器,并连接到 Ollama:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

解释:

  • -d:后台运行容器。
  • -p 3000:8080:将容器的 8080 端口映射到主机的 3000 端口。
  • --add-host=host.docker.internal:host-gateway:添加主机映射,使容器能够访问主机服务。
  • -v open-webui:/app/backend/data:将 Open WebUI 的数据目录挂载到 Docker 卷 open-webui
  • --name open-webui:为容器命名。
  • --restart always:设置容器始终自动重启。
  • ghcr.io/open-webui/open-webui:main:使用的 Docker 镜像。

(3)验证 Open WebUI 是否运行

打开浏览器,访问 http://localhost:3000。 如果看到 Open WebUI 的登录界面,说明运行成功。

http://localhost:3000

在这里插入图片描述

步骤 4:通过 Open WebUI 使用 DeepSeek-V3 大模型

(1)登录 Open WebUI

首次访问 Open WebUI 时,需要创建一个账户。

  1. 输入用户名和密码,完成注册并登录。

(2)连接到 Ollama

在 Open WebUI 界面中,进入设置页面。

  1. 在“Ollama API URL”字段中输入 http://host.docker.internal:11434,然后保存设置。

(3)选择 DeepSeek-V3 模型

在 Open WebUI 界面中,找到模型选择菜单。

  1. 选择 DeepSeek-V3 作为当前使用的模型。

(4)与模型交互

在输入框中输入问题或指令,例如:

你好,DeepSeek-V3!你能帮我写一段代码吗?

点击“发送”按钮,等待模型生成回复。

步骤 5:停止和删除容器

(1)停止容器

如果需要停止容器,可以使用以下命令:

docker stop open-webui

(2)删除容器

如果需要删除容器,可以使用以下命令:

docker rm open-webui
内容概要:本文介绍了DeepSeek模型在不同平台上部署的方法。首先阐述了基于Ollama本地部署,包括Ollama的安装、模型拉取以及交互模式的使用。接着讲解了DeepSeek在移动设备(iOS和Android)上的部署细节:iPhone需要通过Safari安装快捷指令,配置API Key并通过快捷指令测试运行;Android则借助Termux安装必要组件,并手动搭建Ollama环境以加载和测试模型。最后详细叙述了基于Open WebUI部署的方式,涉及OllamaDocker Desktop及Open WebUI的安装流程及其之间的配合使用来最终达成模型的成功部署。 适用人群:面向有兴趣了解或者实际操作DeepSeek模型跨平台部署的技术开发者、研究人员以及AI爱好者。 使用场景及目标:适用于希望利用DeepSeek模型快速构建本地化应用程序、开展实验研究的用户;具体目标为掌握DeepSeek模型在桌面系统(如Linux、macOS、Windows)、iOS和Android智能手机以及云端WebUI界面上的不同部署手段和技术。 其他说明:对于每种类型的部署都提供了详细的步骤指导,旨在帮助使用者顺利完成所需工具和环境的安装,并确保模型能够正常工作。文中给出的具体链接和命令行脚本,有助于降低初次接触者的上手难度,提升部署效率和成功率。此外,还强调了一些重要的配置注意事项,例如正确输入API key以及对Ollama的初始化检查等。
内容概要:本文主要介绍了一个基于AI的深度学习语言模型DeepSeek本地部署指南。内容分为四个主要部分。首先介绍了Ollama的安装流程,包括前往官方网站选择匹配系统的软件包下载,并依据不同操作系统完成相应的安装操作。接下来重点阐述了针对不同硬件条件下载合适的DeepSeek版本的方法,从选择所需规模(参数量)到执行具体加载命令均作出详述。还提及了为了方便用户进一步利用Docker以及一个叫Open WebUI工具来进行容器管理和服务提供所做出的一些辅助性指导措施。最后简要说明了怎样在命令终端启动该AI助手以及在浏览器界面上完成初次登录验证。 适合人群:想要将大型预训练AI语言模型应用于本地环境的研究员或者开发者;具有一定软硬件搭建基础知识的人士。 使用场景及目标:适用于想要快速把玩大型语言模型却苦于云服务成本太高或是希望提高对LLM底层机制的理解从而更好地开展后续科研工作的用户。他们能够通过这个指南学会一套通用的大规模语言模型部署解决方案,为将来类似项目的实施打下坚实的基础。 阅读建议:读者应当注意官方提供的最新资料和社区讨论来补充本文未能涉及的部分并且持续关注产品迭代升级消息,另外考虑到文中存在大量的命令操作,请确保实验环境下操作的安全性和可控性,严格按照说明执行各项任务。
内容概要:本文详述了 DeepSeek 的多样化部署途径及其实施步骤。对于本地部署,它需要先安装 Ollama 环境,接着通过特定命令行操作拉取并激活 DeepSeek 模型,从而开始即时互动。针对移动设备用户,则分别介绍了iOS和Android环境下的安装流程。对于 iPhone 来说,部署涉及安装快捷指令和取得 API Key 步骤,Android 则依靠 Termux 软件执行相似的功能集合。基于 Open WebUI部署同样覆盖到了从基础工具如 DockerOllama搭建,直至具体操作来获取并试用 DeepSeek 模型。每一步均附带详细的指导,为不同技术水平的人提供帮助和支持。 适用人群:希望将 AI 模型 DeepSeek 投入应用的开发人员和技术爱好者,尤其是对自然语言处理和AI模型部署感兴趣的个人或企业技术人员。 使用场景及目标:本篇文章适用于需要在各种计算平台上快速启用 DeepSeek AI 工具的情景,无论是为了个人研究还是业务应用。主要的目标是为了让读者了解 DeepSeek 在不同类型设备上安装的具体流程,以便更好地集成到他们的项目之中或者日常使用当中。 其他说明:文中提供了明确的指令,确保即便是初学者也能逐步跟随着指示成功地在指定设备上安装并运行DeepSeek模型。这对于想要探索前沿AI技术以及实际应用的研究者来说是一个不错的切入点。此外,在各个阶段还特别关注到了遇到可能问题的解决方案,进一步增强了文章的实际指导意义。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CPUOS2010

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值