【3分钟速通】部署本地deepseek-R1模型【图文】【手把手】

1. 前言

最近在写C++的debug调试器,接入我的leetcode-runner项目,但好多知识我都忘了,比如管道套接字重定向

最近deepseek大火,笔者也尝试了一段时间,肥肠的不错哇

但树大招风,因为某些未知原因,deepseek服务器总是被某些➗生攻击,因此打算本地部署

2. 安装ollama

Ollama是一个开源框架,允许使用者快捷的安装部署本地大预言模型

github链接

笔者采用官网下载方式

官网链接

点开链接,发现如下界面

在这里插入图片描述

点击download,下载ollama。请读者根据自己的OS选择不同的下载方式,笔者选择Win10

在这里插入图片描述

特么的,真慢啊

下载完成后,点击exe,运行
在这里插入图片描述
点击install
在这里插入图片描述
看右下角,ollama运行成功!
在这里插入图片描述
输入http://localhost:11434/,ollama is running
在这里插入图片描述

3. deepseek model安装

进入ollama官网,搜索deepseek,选择r1

然后下载适合你电脑的版本,笔者这里选择1.5b
在这里插入图片描述

点击复制按钮
在这里插入图片描述

打开终端,开始下载模型

在这里插入图片描述【】
下载完成!可以提问了,不过1.5b有点憨,推荐8b

在这里插入图片描述

4. 图形界面安装

4.1 docker安装

docker官网地址

点击docker官网链接,进入如下界面

在这里插入图片描述

点击Download Docker Destop下载适配不同OS的版本,笔者这里选择Win10

在这里插入图片描述
下载完成后,点击Installer.exe,下载安装
在这里插入图片描述

在这里插入图片描述
安装完成后,docker会要求用户重启以结束此次安装,选择重启

在这里插入图片描述

4.2 Open WebUI

Open WebUI是一个开源的框架,具有很强的拓展性,能够对接诸多模型,提供一个UI可视化界面

GitHub链接

笔者采用docker安装,因为方便

进入GitHub界面,查阅README,定位到下图所示内容

选择docker安装指令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

打开cmd,输入指令安装

指令输入完毕后,docker会启动open web

在浏览器输入localhost:3000,启动UI界面

在这里插入图片描述
done!

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值