从零使用Ollama+Chatbox搭建DeepSeek本地大模型指南一(可视化界面免费)

系统要求

  • 操作系统:Windows 10/11(本教程以Win11演示)
  • 硬件要求:
    • 内存:最低16GB(推荐32GB+)
    • 显卡:支持CUDA的NVIDIA显卡(推荐RTX 3060 12GB+)
    • 存储:至少40GB可用空间

整体流程概览

  1. 安装Ollama服务端(相当于deepseek的壳子)
  2. 下载DeepSeek模型
  3. 安装Chatbox客户端
  4. 配置对接本地模型
  5. 测试对话功能

详细步骤说明

一、安装Ollama服务端

  1. 打开浏览器访问官网:(按自己操作系统选择)
  2. 下载Windows版本:
    • 点击「Download for Windows」
    • 下载完成后双击 OllamaSetup.exe
    • 注意:deepseek模型和ollama均没有可视化窗口
  3. 安装过程:
    • 右键安装包 → 「以管理员身份运行」
    • 勾选同意协议 → 保持默认安装路径 → 等待安装完成
  4. 验证安装(需联网):
    • Win + R → 输入 cmd → 回车打开命令提示符
    • 输入命令:
ollama --version
- 成功显示版本号即安装成功(示例输出:`ollama version 0.1.27`)
  1. 配置环境变量:
    • Win + R → 输入 sysdm.cpl → 回车打开命令提示符
    • 高级-环境变量
    • 点击新建:
    • 变量名:OLLAMA_HOST 变量值:0.0.0.0
    • 变量名:OLLAMA_ORIGINS 变量值:*
    • 如后续使用还是报错,可关闭防火墙

二、下载DeepSeek模型

  1. 命令提示符打开:
    • Win 键 → 输入 cmd → 右键选择「以管理员身份运行」
  2. 执行下载命令:
ollama run deepseek-r1:8b
//其他版本修改变量即可--1.5b,7b,8b,14b,32b,70b,671b,
//例子:ollama run deepseek-r1:1.5b
- 注意:下载时间取决于网络速度(约5-30分钟),如下载失败可选更小模型继续尝试
  1. 验证模型下载:
ollama list
- 正确输出应包含:

三、运行模型服务

  1. 启动模型服务:
ollama run deepseek-r1:8b
- 首次运行会自动完成最后配置
- 看到 `>>> Send a message (/? for help)` 提示即启动成功
  1. 测试基础对话(可选):
    • 输入测试问题:
用Python写一个快速排序算法
- 观察是否正常生成代码

四、安装Chatbox客户端

  1. 访问GitHub Release:
  2. 下载Windows版本:
    • 找到最新版本(如 Chatbox-1.14.0-win.exe
    • 点击下载 → 保存到本地
  3. 安装步骤:
    • 双击安装包 → 选择安装路径(建议保持默认)
    • 勾选「创建桌面快捷方式」
    • 完成安装后自动启动程序

五、配置Chatbox连接本地模型

  1. 进入设置界面:
    • 点击左下角「设置」图标(⚙️)
    • 选择「模型设置」标签页
  2. 配置参数:
    • 模型提供方:OLLAMAAPI
    • API地址:http://localhost:11434
    • 模型名称:deepseek-r1:8b
    • 严谨与想象(Temperature):0.7(推荐,过大会延伸过多,不可控)
    • 上下文的消息数量上限:无限制

  1. 保存

六、使用本地模型对话

  1. 新建对话:
    • 点击左上角新对话按钮
    • 输入框输入问题(示例):
帮我用JavaScript实现二叉树的中序遍历
  1. 发送请求:
    • Enter 键或点击发送按钮
    • 首次响应可能需要10-20秒
  2. 优化技巧:
    • 在问题前添加指令:
[INST] 你是一个专业程序员,请用Python实现... [/INST]
- 调整Temperature(0.3-1.0)控制创造性

更多玩法可以先自己研究,后面我也会继续更新专业文档

常见问题解决

1. 下载模型速度慢

# 设置镜像源(在cmd中执行)
setx OLLAMA_MODELS "https://mirror.example.com/ollama/models"

2. 显存不足报错

  • 解决方案:
    1. 改用更小模型:ollama pull deepseek-r1:1.5b
    2. 添加运行参数:
ollama run deepseek-r1:1.5b --num-gpu 50

3. 连接被拒绝

  1. 检查服务状态:
netstat -ano | findstr :11434

正常:

  1. 重启Ollama服务:
taskkill /f /im ollama.exe
ollama serve

开机自启动

  1. 创建批处理文件 start_ollama.bat
@echo off
ollama serve
  1. Win + R 输入 shell:startup
  2. 将批处理文件放入启动文件夹

通过以上步骤,您已成功搭建本地大模型环境。建议首次运行时关闭其他大型程序以确保性能,后续可根据硬件配置调整模型参数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值