如何在本地部署DeepSeek?-两种方法-(Open-webui 和 浏览器插件)

如何在本地部署DeepSeek-R1模型?(两种方法)

方法一:DeepSeek-R1+Ollama + Chrome 插件Page Assist

方法二:DeepSeek-R1+Ollama +docker+Open-webui

方法一:DeepSeek-R1+Ollama + Chrome 插件Page Assist :

假设你已经安装好了Ollama ,直接到官网Models下面,目前排第一的就是deepseek-r1。

如果你还没装Ollama,点击官网右上角的Download下载安装:ollama.com/

进入DeepSeek -r1的模型界面,在中间左侧下拉找到你想下载的对应参数的模型。量化后的1.5b基本所有电脑都能跑,包括电子垃圾的配置,7b和8b主流配置的电脑一般也没问题(16GB的内存会相对宽裕一些),14b往上的需要查一下自己电脑的显存和内存,一般需要至少32GB或者更高的内存会更稳妥。

然后打开本地的命令提示符,把上图中间右侧的指令复制进去,回车键开始下载安装对应参数的模型:

ollama run deepseek-r1:7b

注意这个run的指令是运行,如果本地没有这个模型会先下载再运行。如果你只想下载不想通过命令提示符来运行这个模型(交互界面太挫了),你可以使用ollama pull指令来执行仅下载的功能:

ollama pull deepseek-r1:7b

下载完成后你可以通过ollama list指令查看所有本地模型占用的存储空间:

ollama list

如果你想看具体某一个模型的参数。可以使用ollama show指令:

ollama show <模型名称>

好了,到这里模型已经下载好了。

交互的方式你当然可以选择很流行的Open WebUI ,不过我觉得普通用户光是花额外精力弄这个就已经很烦了,毕竟你不能指望人均熟练Docker 或者前端的本地部署。

我的推荐是在Chrome应用商店找到Page Assist,它直接提供了一个类似Open WebUI的交互界面来运行本地的大模型:

装好这个插件之后点击图标打开它,在最右侧的设置下找到Ollama,输入Ollama的接口信息,然后点击保存:

http://127.0.0.1:11434

(可选项)当然你也可以在OpenAI 兼容API下找到API服务的设置,这里也有DeepSeek选项:

(可选项)选中之后你唯一需要做的就是填入你的api key:

点击左上方的新聊天,如果设置没有问题,中间会显示Ollama正在运行,上方有下拉菜单可以选择你要运行的本地大模型:

方法二:DeepSeek-R1+Ollama +docker+Open-webui

Step 1.本地下载deepseek模型(mac,Linux,windows系统均可使用ollama

下载成功后终端输入ollama,检验是否成功

Step 2.下载不同版本模型(需要根据机器性能决定 模型参数大小)

运行右上角命令行在终端中(windows使用cmd,mac使用terminal)

ollama run deepseek-r1:7b

Step3.网页管理 (通过docker管理网页)(github.com/open-webui/o)

下载完docker后,运行命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Step4.点对应的Port会弹出类似官网网页的对话窗口

可供参考资料:

如何在本地计算机上安装和使用 DeepSeek R1

视频:youtube.com/watch?

### 本地部署 DeepSeek v3 大模型并搭建 Open Web UI #### 准备工作 为了成功部署 DeepSeek v3 配置 Open Web UI 页面,需先确认计算机环境满足最低硬件需求,并安装必要的软件包依赖项。 #### 安装 Ollama Ollama 是运行 DeepSeek 模型的基础平台之一。通过访问 Ollama 的官方网站,在首页找到 models 板块,选择排名第一的 DeepSeek-R1 或其他所需版本进行下载[^3]。对于特定版本如 DeepSeek v3,则应关注官方文档获取最新的发布说明链接。 #### 下载与初始化 DeepSeek V3 首次启动时,如果已正确设置了 Ollama 环境变量,执行 `ollama run deepseek/v3` 就能触发自动化的模型下载流程。这一步骤通常只需要做一次,之后就可以直接调用训练好的权重文件来加速后续处理过程[^4]。 #### 配置 Open Web UI 由于命令行交互不够直观友好,建议进一步设置图形化用户界面 (GUI),即 Open Web UI。此工具允许更简便地管理多个 LLMs(大型语言模型),包括但不限于加载不同类型的预训练参数集、调整超参选项等操作。具体步骤如下: 1. **克隆仓库** 使用 Git 工具拉取最新版源码至本地机器: ```bash git clone https://github.com/your-repo/Open-WebUI.git cd Open-WebUI ``` 2. **创建虚拟环境** 构建 Python 虚拟环境以隔离项目所需的库文件其他外部干扰因素: ```bash python -m venv env source ./env/bin/activate # Linux/MacOS .\env\Scripts\Activate.ps1 # Windows PowerShell ``` 3. **安装依赖** 执行 pip install 命令安装 requirements.txt 中列出的所有第三方模块: ```bash pip install --upgrade pip setuptools wheel pip install -r requirements.txt ``` 4. **修改配置文件** 编辑 config.yaml 文件中的 API_KEY 字段为有效的密钥字符串;同时指定 MODEL_PATH 参数指向先前保存的大规模预训练模型位置。 5. **启动服务端口监听** 运行 main.py 启动 HTTP RESTful Server,默认绑定地址 http://localhost:7860 可供浏览器访问测试。 ```python if __name__ == "__main__": from app import create_app application = create_app() application.run(host='0.0.0.0', port=7860, debug=True) ``` 完成上述所有环节后,应该能够在个人计算设备上顺利体验到基于 DeepSeek 技术驱动的强大功能特性了!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值