保姆级教程:利用Ollama与Open-WebUI本地部署 DeedSeek-R1大模型

1. 安装Ollama

根据自己的系统下载Ollama,我的是Linux,所以我使用如下命令进行下载安装:

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

2. 安装Open-WebUI

使用 Docker 的方式部署 open-webui ,使用gpu的话按照如下命令进行

sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

官方的地址可能会出现网络问题,可以使用国内地址:

sudo docker
### Deep Seek 本地部署详细教程 #### 环境准备 ##### 硬件需求 最低配置为 CPU 支持 AVX2 指令集,配备 16 GB 内存以及至少 30 GB 存储空间。为了更佳的性能体验,推荐使用 NVIDIA GPU (RTX 3090 或更新型号),搭配 32 GB RAM 和不少于 50 GB 的硬盘容量[^1]。 ##### 软件依赖 操作系统可以是 Windows、macOS 或 Linux 中的一种;对于打算利用 Open Web UI 功能的情况,则还需事先安装 Docker 工具。 #### 安装 Ollama 及模型获取 通过访问官方网址来下载并设置 ollama 应用程序,默认情况下该应用程序会被放置于 C:\Users\用户名\AppData\Local\Programs\Ollama 文件路径下(注意 AppData 是被隐藏起来的文件夹)。接着,在相同网站上选取预训练好的模型版本——例如默认选项 "7b" —— 并执行命令 `ollama run deepseek-r1` 来启动模型加载过程。成功之后,所下载的数据将会存储至 C:\Users\用户名\.ollama\models\blobs 这个位置[^2]。 #### 配置测试 考虑到实际应用中的效率问题,不同规模大小的模型会对计算机资源有不同的消耗程度。比如 i7-12700F 加 RTX4060Ti 16G 组合能够较为顺畅地处理较小尺寸如 7B 参数量别的模型实例,但对于更大参数量则可能出现响应速度下降的现象。 #### 数据安全保障措施 出于安全性考虑,建议采用虚拟机的方式来进行操作,特别是涉及到敏感资料处理的时候。这不仅有助于隔离外部网络风险,也能更好地控制内部计算环境的安全边界[^4]。 ```bash # 示例:创建基于 Ubuntu 的虚拟机用于 DeepSeek 部署前准备工作 vagrant init ubuntu/bionic64 vagrant up ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

笨小古

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值