「零基础小白」DeepSeek-R1 本地化部署

📋 前置准备

1. 操作系统要求
  • Windows 10/11(64位)

  • macOS 11 Big Sur 或更新版本

  • Linux(Ubuntu 20.04/CentOS 8 或更新版本)

2. 硬件要求
  • 最低配置:8GB内存 + 20GB硬盘空间

  • 推荐配置:16GB内存 + NVIDIA显卡(显存4GB以上)


📥 第一步:安装Ollama框架

Windows用户
  1. 访问官网下载页

  2. 点击"Download for Windows"按钮

  3. 双击下载的OllamaSetup.exe文件

  4. 一直点击"下一步"直到安装完成

macOS用户
# 打开终端执行以下命令(需安装Homebrew)
/bin/bash -c "$(curl -fsSL https://ollama.com/install.sh)"

解压下载好的文件

双击打开,点击默认按钮——移动到应用程序目录下

进入欢迎界面

点击下载命令行工具,需要输入电脑开机密码(后续可通过终端命令行进行提问)

Linux用户
# Ubuntu/Debian
curl -fsSL https://ollama.com/install.sh | sh
​
# CentOS/RHEL
sudo yum install ollama -y

⚙️ 第二步:配置运行环境

验证安装是否成功
ollama --version
# 看到版本号(如:ollama version 0.1.14)表示安装成功
启动后台服务(重要!)
# Windows用户双击桌面图标自动启动
# macOS/Linux用户进入“终端”执行:
ollama serve

🚀 第三步:下载DeepSeek-R1模型

选择模型版本(根据电脑配置选择)
模型大小内存要求推荐显卡
7B8GB无要求
14B16GBRTX 3060
32B32GBRTX 4090
1.5B
执行下载命令(以7B版本为例)
ollama run deepseek-r1:7b
下载过程演示
# 会看到类似以下进度条
pulling manifest... 
pulling 00e1317cbf74...  ▕██████████████████▏ 4.6 GB/4.6 GB 
pulling 8c17c2ebb0ea...  ▕██████████████████▏  12 KB/12 KB 
verifying sha256 digest... 
writing manifest... 
success

🧪 第四步:测试模型运行

基础测试命令
# 输入对话指令
>>> 你好,请介绍一下你自己
预期成功响应
您好!我是由深度求索(DeepSeek)开发的智能助手DeepSeek-R1,擅长逻辑推理和复杂问题解答...
实际终端效果(Mac)


🛠️ 第五步:进阶使用技巧

1. 持续对话模式
ollama run deepseek-r1:7b --verbose
# 输入多轮对话后按Ctrl+D退出
2. 本地API调用
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "中国的首都是哪里?"
}'

❌ 常见问题排查

Q1:下载模型时卡住不动
  • 检查网络是否正常

  • 尝试重启Ollama服务:ollama serve restart

Q2:运行时提示显存不足
  • 换用更小的模型版本(如从14B改为7B)

  • 添加--num-gpu 1参数限制GPU使用

Q3:中文显示乱码
  • 终端设置为UTF-8编码

  • Windows用户建议使用Windows Terminal


📌 注意事项

  1. 首次运行需要下载约5-20GB数据(取决于模型版本)

  2. 建议保持电脑接通电源运行

  3. 复杂问题响应可能需要10-30秒时间


完成以上步骤后,您已成功在本地部署了DeepSeek-R1人工智能模型!可通过命令行或开发API进行调用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值