本地部署DeepSeek

目录

一、前言

二、硬件要求

三、部署步骤

1. 下载 Ollama

 2. 安装 Ollama

3. 验证Ollama

4. 下载模型

5. 使用模型

四、常见问题

1. 如何查看已安装的模型?

2. 如何删除模型?

3. ollama的其它功能

 五、交互界面


一、前言

DeepSeek本地部署可以避免数据上传到云端,确保数据安全。可以节省 API 调用的费用,可以对模型进行二次开发和定制。

二、硬件要求

!!!本人电脑没啥配置,显卡都没有~

系统Windows 11
显卡不需要显卡
内存16GB

三、部署步骤

1. 下载 Ollama

Ollama 是一个用于管理 AI 模型的工具 ,可以在本地运行大型语言模型。

 2. 安装 Ollama

建议安装到C盘,能提升Ollama的运行速度和响应时间

3. 验证Ollama

显示版本号,说明安装成功

4. 下载模型

进入Ollama官网,找到 deepseek-r1,选择合适的版本,复制下载命令。(这里我选1.5b)

DeepSeek 不同参数版本介绍

模型参数规模典型用途CPU 建议GPU 建议内存建议 (RAM)磁盘空间建议适用场景
1.5b (15亿)小型推理、轻量级任务4核以上 (Intel i5 / AMD Ryzen 5)可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存)8GB10GB 以上 SSD小型 NLP 任务、文本生成、简单分类
7b (70亿)中等推理、通用任务6核以上 (Intel i7 / AMD Ryzen 7)中端 GPU (如 NVIDIA RTX 3060, 12GB 显存)16GB20GB 以上 SSD中等规模 NLP、对话系统、文本分析
14b (140亿)中大型推理、复杂任务8核以上 (Intel i9 / AMD Ryzen 9)高端 GPU (如 NVIDIA RTX 3090, 24GB 显存)32GB50GB 以上 SSD复杂 NLP、多轮对话、知识问答
32b (320亿)大型推理、高性能任务12核以上 (Intel Xeon / AMD Threadripper)高性能 GPU (如 NVIDIA A100, 40GB 显存)64GB100GB 以上 SSD大规模 NLP、多模态任务、研究用途
70b (700亿)超大规模推理、研究任务16核以上 (服务器级 CPU)多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存)128GB200GB 以上 SSD超大规模模型、研究、企业级应用
671b (6710亿)超大规模训练、企业级任务服务器级 CPU (如 AMD EPYC / Intel Xeon)多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存)256GB 或更高1TB 以上 NVMe SSD超大规模训练、企业级 AI 平台

执行 ollama run deepseek-r1:1.5b 命令,等待下载完成后就可以在本地使用大模型了

5. 使用模型

安装完成后,你可以直接在命令行中与模型对话

四、常见问题

1. 如何查看已安装的模型?

在命令行中输入以下命令:

ollama list

2. 如何删除模型?

在命令行中输入以下命令:

ollama rm deepseek-r1:1.5b

在命令行输入,ollama rm + 模型名称,例如:ollama rm deepseek-r1:1.5b,就会自动删除对应模型。

3. ollama的其它功能

命令行输入ollama,展示出ollama的其它功能

输入“ollama stop”是停止模型运行,“run + 模型名”是运行对应模型。

 五、交互界面

在命令窗口使用太不方便了,也不美观哈~ 推荐用 Open-WebUI

它界面是这样的:

安装步骤下午整理出来~

docker安装Open-WebUI-优快云博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值