DeepSeek Windows 本地部署详细教程

目录

一、环境准备

(一)硬件需求

(二)软件依赖

二、安装 Ollama

使用Ollama

1. 模型操作命令

三、下载并部署 DeepSeek 模型

(一)选择模型版本

(二)启动 Ollama 服务

(三)下载模型

(四)查看已下载的模型列表

​编辑

(五)运行模型

​编辑

四、使用 Open WebUI 增强交互体验

五、通过 Cherry Studio 调用模型

六、常见问题及解决方法

(一)权限问题

(二)文件路径

(三)文件完整性

(四)初始化配置

七、总结


随着人工智能技术的飞速发展,本地部署大语言模型的需求日益增加。DeepSeek 作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私。本文将详细介绍在 Windows 系统上部署 DeepSeek 的全过程,包括环境准备、安装工具、下载模型以及运行模型等步骤。希望这篇教程能够帮助你快速、顺利地完成部署。

一、环境准备

(一)硬件需求
  • CPU:建议使用多核心处理器,特别是对于需要处理大量文本生成任务的情况。

  • 内存:至少16GB RAM;根据模型大小和预期负载,可能需要更多内存(如32GB或更高)。

  • GPU(可选但推荐):NVIDIA GPU 配备至少8GB显存,用于加速模型推理过程。推荐使用具有16GB或以上显存的专业级GPU。

  • 存储:SSD硬盘以加快数据读取速度;考虑到模型文件较大,建议准备充足的存储空间。

(二)软件依赖

  • 操作系统:Windows 10或更高版本。

  • Python:建议 Python 3.8 或更高版本,确保兼容最新的库和工具包。

  • Docker:如果使用 Open Web UI,需要安装 Docker。

二、安装 Ollama

Ollama 是一个开源工具,用于在本地轻松运行和部署大型语言模型。它支持多种模型架构,并提供与 OpenAI 兼容的 API 接口,适合软件开发者和包括小微企业在内的企业快速搭建本地私有化 AI 服务。以下是安装 Ollama 的步骤:

  1. 访问 Ollama 官网:前往 Ollama 官网,下载适用于 Windows 的安装包,点击“Download”按钮。

  2. Github地址:https://github.com/ollama/ollama

  3. 下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。

  4. 验证安装:安装完成后,在终端输入以下命令,检查 Ollama 版本:

    bash复制

    ollama --version

  5. 如果输出版本号(例如 ollama version is 0.5.6),则说明安装成功。或者找到下面图标点击

使用Ollama

1. 模型操作命令

  • ollama serve:启动 Ollama 服务,是后续操作的基础。
  • ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。
  • ollama show:显示模型信息,可查看模型架构、参数等详细信息,辅助模型分析。
  • ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。
  • ollama pull:从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。
  • ollama push:将模型推送到注册表,便于共享模型。
  • ollama list:列出本地已有的模型,方便管理和选择。
  • ollama cp:复制模型,可用于备份或创建模型副本。
  • ollama rm:删除模型,释放存储空间。
  • ollama help:获取任何命令的帮助信息,方便用户快速查询命令用法。

Ollama 的主要特点包括:

  • 轻量化部署:支持在本地设备上运行模型,无需依赖云端服务。
  • 多模型支持:兼容多种开源模型,如 LLaMA、DeepSeek 等。
  • 高效管理:提供命令行工具,方便用户下载、加载和切换模型。
  • 跨平台支持:支持 Windows、macOS 和 Linux 系统。

三、下载并部署 DeepSeek 模型

Ollama 支持多种 DeepSeek 模型版本,用户可以根据硬件配置选择合适的模型。

DeepSeek是由深度求索(DeepSeek)公司开发的高性能 AI 推理模型,专注于数学、代码和自然语言推理任务。其核心优势包括:

  • 强化学习驱动:通过强化学习技术显著提升推理能力,仅需少量标注数据即可高效训练。
  • 长链推理(CoT):支持多步骤逻辑推理,能够逐步分解复杂问题并解决。
  • 模型蒸馏:支持将推理能力迁移到更小型的模型中,适合资源有限的场景。
  • 开源生态:遵循 MIT 开源协议,允许用户自由使用、修改和商用。

以下是部署步骤:

(一)选择模型版本

  • 入门级:1.5B 版本,适合初步测试。

  • 中端:7B 或 8B 版本,适合大多数消费级 GPU。

  • 高性能:14B、32B 或 70B 版本,适合高端 GPU。

(二)启动 Ollama 服务

在终端运行以下命令启动 Ollama 服务:

bash复制

ollama serve

可以通过访问 http://localhost:11434 进行查看是否启动成功。

(三)下载模型

服务启动后,输入以下命令下载并运行 DeepSeek 模型。例如,下载 7B 版本的命令为:

bash复制

ollama pull deepseek-r1:7b

如果需要下载其他版本,可以参考以下命令:

bash复制

ollama pull deepseek-r1:8b
ollama pull deepseek-r1:14b
ollama pull deepseek-r1:32b

(四)查看已下载的模型列表

下载完成后,可以使用以下命令查看已下载的模型列表:

bash复制

ollama list

(五)运行模型

可以通过以下命令运行模型:

bash复制

ollama run deepseek-r1:7b

这将启动 DeepSeek 7B 模型,并进入交互式命令行界面,可以直接与模型对话。

测试功能

    • 在交互模式下,可以测试 DeepSeek-R1 的多种功能,例如:
      • 智能客服:输入客户常见问题,如“win10的复制快捷键?”。
      • 内容创作:输入“以元宵佳节为题写一篇500字的文章”。
      • 编程辅助:输入“用Java写贪心算法”。
      • 教育辅助:输入“说一下水在化学中的元素组成”。

四、使用 Open WebUI 增强交互体验

只要是支持Ollama的webUI都可以,如Dify,AnythingLLM都可以。我这里用比较简单,而且也是与Ollama结合比较紧密的open-webui为例:

GitHub地址:https://github.com/open-webui/open-webui

如果有Python3环境直接Pip安装即可

安装

pip install open-webui

启动服务

open-webui serve

启动后,在浏览器中访问 http://localhost:8080/ 即可进入 Open WebUI 界面。

选择模型并测试

在 Open WebUI 界面中,选择已下载的 DeepSeek-R1 模型,即可开始对话测试。

五、通过 Cherry Studio 调用模型

Cherry Studio 是一款开源的多模型桌面客户端,可以直接调用主流的大模型,包括本地模型。以下是通过 Cherry Studio 调用 DeepSeek 模型的步骤:

  1. 下载 Cherry Studio:进入 Cherry Studio 官网 的下载界面,点击“立即下载”,或者从网盘链接下载。

  2. 安装 Cherry Studio:安装步骤简单,直接点击“下一步”即可。

  3. 配置模型服务:安装完成后,点击左下角的“设置”,在模型服务里选择“Ollama”,点亮右上角的“启用”,API 密钥会自动填写,然后点击“管理”。

  4. 选择模型:返回到首页,点击页面上方显示的模型名称,选择本地部署的 DeepSeek-R1:1.5B。

  5. 开始对话:配置完成后,就可以与 AI 正常对话了。

六、常见问题及解决方法

(一)权限问题

请确保所有操作均在管理员权限下进行,避免因权限不足导致安装失败。

(二)文件路径

解压及移动文件时,请选择不含特殊字符的目录,防止路径错误。

(三)文件完整性

下载前请核实安装包版本及完整性,如遇错误请重新下载。

(四)初始化配置

首次运行软件时,请耐心等待初始化过程完成,确保配置正确。

七、总结

通过以上步骤,你可以在 Windows 系统上成功部署 DeepSeek 模型,并通过 Cherry Studio 调用模型进行对话。本地部署 DeepSeek 模型具有响应及时、免费、个性化程度高的优势,但对硬件配置有一定要求。如果你有合适的设备,不妨尝试本地部署,体验强大的 AI 功能。

希望这篇教程对你有所帮助。如果在部署过程中遇到任何问题,欢迎在评论区留言,我们将持续更新解决方案并提供技术支持。


参考文献DeepSeek本地部署教程一键安装包-windows电脑deepseek本地运行 DeepSeek本地部署保姆级教程,0基础有手就会! DeepSeek本地部署详细指南

DeepSeek-R1 本地部署指南:Ollama 助你轻松实现,支持2G显卡Ollama 安装与使用指南笔记

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CarlowZJ

我的文章对你有用的话,可以支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值