Windows系统本地部署deepseek详细过程(已验证)

Windows本地部署DeepSeek

已在本地部署并做过验证

一、Ollama安装过程

首先需要安装Ollama。这个软件也相当于运行DeepSeek模型的底层,没有这个底层就没办法跑DeepSeek AI模型。

Ollama安装网址:https://ollama.com/

在这里插入图片描述

在这里插入图片描述

下载完成后双击安装

等待安装完成后,电脑右下角会提示安装成功的英文提示符,或者在开始菜单栏中找到它,无需打开
在这里插入图片描述

二、部署AI大模型

安装完成之后需要选择一个合适的模型才能运行。

在Ollama官网中点击Models

在这里插入图片描述

选择deepseek-r1,进入详情,选择自己想要的模型类型和大小,接着点击【复制】按钮图标

(注意:模型会直接安装在C盘,请注意C盘的可用空间,模型越大,占用的内存越大!)
在这里插入图片描述

在Windows的【开始】点击【PowerShell(管理员)】或者【终端管理员cmd】

输入刚刚复制的模型命令,并安装:
例如: ollama run deepseek-r1:7b

在这里插入图片描述
等待下载即可。

三、安装完成

部署完成之后会有【Success】提示,且命令提示符输入的位置会变成【>> send a message for help】的提示,完成后就可以开始玩了。

退出cmd终端或PowerShell后,再次进入ollama只需运行以下命令:

如果你安装了多个模型, 在终端里输入【ollama ps】或者【ollama list】查看已经安装的模型,复制一下安装的模型的【NAME】
我这里是【deepseek-r1:7b】
在这里插入图片描述
在这里插入图片描述

接着输入【ollama run 模型名称】,就能进入到DeepSeek的对话框了。例如:
ollama run deepseek-r1:7b

后续可以自己安装其他模型,给它做定制化投喂,成为自己的小助手哟

祝大家新年快乐!!!

创作不易,记得关注点赞收藏噢~
创作者:吴仔汕
<think>嗯,用户想在Windows系统本地部署DeepSeek。我需要根据提供的引用内容来整理步骤。首先,用户提到了几个引用,其中引用[1]到[4]都是相关的。让我先看看这些引用里的信息。 引用[3]提到需要克隆DeepSeek的仓库,使用git命令。这可能涉及到安装Git,但用户可能已经安装了,或者需要提示他们安装。然后进入克隆的目录。引用[4]则详细说明了需要下载Ollama,下载模型,安装Conda,创建环境,安装UI,并启动服务。而引用[2]重点在于更改安装目录,避免系统盘的问题。引用[1]则提到打开PowerShell或终端的方法。 所以步骤应该是这样的:首先安装必要的工具,比如Ollama和Git。然后下载模型,可能要注意显存选择合适的模型。接着处理目录的问题,可能需要修改Ollama的安装目录到其他盘。然后安装Conda,创建Python环境,安装Open WebUI,最后启动服务。用户可能遇到的问题包括路径设置、环境变量配置,或者依赖安装错误。需要注意提醒用户根据显存选择模型参数,比如32B可能需要更大的显存。另外,启动服务后的访问地址是本地8080端口,需要确认端口是否被占用。 还有,用户可能需要先安装Git,如果没有的话。克隆仓库后,是否需要其他步骤?比如依赖安装或者配置?引用[3]里的步骤似乎比较简单,但引用[4]更详细,涉及到了Conda环境和Web UI的安装。可能要将两者结合起来,先部署模型,然后通过Web界面访问。 另外,引用[2]提到更改Ollama目录,这可能需要修改环境变量或者配置文件,用户可能不熟悉这些操作,需要详细说明步骤。例如,安装Ollama后如何更改存储路径,避免C盘空间不足的问题。 总结一下,步骤大概分为:安装Ollama并配置目录,下载模型,安装Conda,创建环境,安装WebUI,启动服务。需要分步骤详细说明,并指出注意事项,比如显存选择、目录更改方法等。同时,问题部分可以涉及性能优化、常见错误解决等。</think>### 分步指南:Windows系统本地部署DeepSeek #### 一、环境准备 1. **安装Ollama** - 访问[Ollama官网](https://ollama.ai/)下载Windows版本安装包 - 安装时建议选择非系统盘(如D盘),避免占用C盘空间[^2] 2. **配置Ollama存储路径**(可选) - 若需更改默认存储目录,安装后通过环境变量设置: ```powershell setx OLLAMA_MODELS "D:\ollama\models" ``` - 重启终端使配置生效[^2] #### 二、模型部署 1. **下载DeepSeek模型** 根据显存容量选择合适模型参数(如16B/32B): ```powershell ollama run deepseek-r1:32b # 显存建议≥24GB选择32B版本[^4] ``` 2. **验证模型运行** 输入测试指令确认模型响应正常: ```powershell >>> 你好,请介绍你自己 ``` #### 三、WebUI部署 1. **安装Miniconda** ```powershell curl -O https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe .\Miniconda3-latest-Windows-x86_64.exe ``` 2. **创建Python环境** ```powershell conda create -n open-webui python=3.11 conda activate open-webui ``` 3. **安装Open WebUI** ```powershell pip install open-webui ``` 4. **启动Web服务** ```powershell open-webui serve ``` 访问 `http://localhost:8080` 即可使用交互界面[^4] #### 四、进阶配置(可选) - **多模型管理**:在Ollama中运行`ollama list`查看已安装模型 - **API调用**:通过`http://localhost:11434`访问本地API接口 - **性能优化**:在NVIDIA控制面板中开启CUDA加速(需支持GPU)
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值