Ollama+deepseed+chatbox 可视化本地部署

部署运行你感兴趣的模型镜像
我的系统
  • 操作系统: Windows 11

  • 显卡: NVIDIA GeForce RTX 4060 8G    

  • 内存: 32GB

  • 存储: 100GB 固态硬盘

  • 模型  8B

第一步:下载并安装 Ollama
  1. 下载 Ollama:

  2. 安装 Ollama:

    • 下载完成后,双击 OllamaSetup.exe 进行安装。请注意,Ollama 会默认安装在 C 盘。

  3. 检查安装是否成功:

    • 打开命令提示符(cmd),输入以下命令:

    • where ollama

      如果安装成功,系统会返回 Ollama 的安装路径。

第二步:下载并运行 DeepSeek 模型
  1. 选择模型:

    访问 DeepSeek 模型页面 选择合适的模型。
  2. 以下是推荐的模型及其对应的显存要求:
    • 显存大小推荐模型
      8GB7B, 8B
      12GB14B
      16GB14B, 勉强 32B
      24GB+32B
      32GB+70B

懒得找的,我这给大家列出来,自己复制哦

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

3、找一个合适的

推荐啊,显卡  主要看现存,别问我 6040 跑多少,没钱,买不起

 

选一个合适的。

复制这段

粘贴到命令行,就OK了  下载有点慢哦,不急。

下载安装自动的,完成就可以对话了。

啥,你问我下次怎么启动。 好好好,我告诉你,下次启动,第一步打开 ollama ,第二部,还是这段代码,就启动了,你问啥,他说啥。 不想写了,怎么实现webUI,有人需要我再补充吧。

如何使用 chatbox 启动可视化界面

  1. 确保 Ollama 已启动

    • 在命令行运行以下命令,启动 Ollama 服务并加载 DeepSeek 模型(例如 deepseek-r1:7b):

      bash

      复制

      ollama run deepseek-r1:7b
    • Ollama 默认会在本地启动 API 服务,端口为 11434

  2. 安装 Chatbox


配置 Chatbox 连接 Ollama

  1. 打开 Chatbox 设置

    • 启动 Chatbox,点击左下角的 设置(齿轮图标)。

  2. 添加自定义 API 配置

    • 在 模型提供商 中选择 Custom OpenAI API

    • 填写以下信息:

      字段
      API 地址 (Endpoint)http://localhost:11434/v1
      模型名称 (Model)例如 deepseek-r1:7b
      API Key留空(无需填写)
  3. 保存并测试连接

    • 点击 保存,返回主界面输入问题测试交互。

    • 如果返回正常响应,说明连接成功!


常见问题

  1. 连接失败

    • 检查 Ollama 是否正在运行(命令行中应有模型加载日志)。

    • 确保端口 11434 未被占用,可通过以下命令验证:

      bash

      复制

      curl http://localhost:11434
    • 如果提示 404 page not found,说明 Ollama 服务已启动。

  2. 模型名称不匹配

    • 在 Chatbox 中填写的模型名称需与 Ollama 中已下载的模型完全一致。

    • 可通过 ollama list 查看本地模型列表。

  3. 防火墙或网络限制

    • 确保防火墙允许 Chatbox 与本地 11434 端口的通信。


进阶配置(可选)

  • 修改 Ollama API 地址
    如果需要通过局域网访问,可修改 Ollama 的启动参数:

    bash

    复制

    OLLAMA_HOST=0.0.0.0 ollama serve

    然后在 Chatbox 中将 API 地址改为 http://[你的IP]:11434/v1

  • 使用 WebUI 替代 Chatbox
    如果更喜欢网页界面,可尝试 Open WebUI,它专为 Ollama 设计。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值