1. 前言
最近在写C++的debug调试器,接入我的leetcode-runner项目,但好多知识我都忘了,比如管道,套接字,重定向。
最近deepseek大火,笔者也尝试了一段时间,肥肠的不错哇
但树大招风,因为某些未知原因,deepseek服务器总是被某些➗生攻击,因此打算本地部署
2. 安装ollama
Ollama是一个开源框架,允许使用者快捷的安装部署本地大预言模型
笔者采用官网下载方式
点开链接,发现如下界面
点击download,下载ollama。请读者根据自己的OS选择不同的下载方式,笔者选择Win10
特么的,真慢啊
下载完成后,点击exe,运行
点击install
看右下角,ollama运行成功!
输入http://localhost:11434/,ollama is running
3. deepseek model安装
进入ollama官网,搜索deepseek
,选择r1
然后下载适合你电脑的版本,笔者这里选择1.5b
点击复制按钮
打开终端,开始下载模型
下载完成!可以提问了,不过1.5b有点憨,推荐8b
4. 图形界面安装
4.1 docker安装
点击docker官网链接,进入如下界面
点击Download Docker Destop
下载适配不同OS的版本,笔者这里选择Win10
下载完成后,点击Installer.exe,下载安装
安装完成后,docker会要求用户重启以结束此次安装,选择重启
4.2 Open WebUI
Open WebUI是一个开源的框架,具有很强的拓展性,能够对接诸多模型,提供一个UI可视化界面
笔者采用docker安装,因为方便
进入GitHub界面,查阅README,定位到下图所示内容
选择docker安装指令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
打开cmd,输入指令安装
指令输入完毕后,docker会启动open web
在浏览器输入localhost:3000
,启动UI界面
done!