安装ChatBox体验本地DeepSeek AI助手

在《国产操作系统安装DeepSeek》这一例中,我们详细介绍了如何在国产操作系统上,基于 Ollama 本地部署并运行DeepSeek-R1模型。但大家应该发现了,DeepSeek只能运行在终端的黑屏中,不方便使用DeepSeek的各项功能。为了能够更好地使用Deepseek,我们将在本地部署DeepSeek的基础上,进一步为大家介绍如何使用Chatbox实现DeepSeek可视化操作。

1.到Chatbox官网下载Linux版的安装包。安装包有.AppImage和.deb两种格式,我下载的是.AppImage格式安装包。

图1 安装包

2.按照《国产操作系统安装DeepSeek》中的方法,启动Ollama服务。

图2 启动Ollama服务

3.安装运行Chatbox可视化智能助手。.AppImage的安装包无需安装,只需要在终端中增加可执行权限,然后用“./安装包名”启动运行即可。.deb的安装包按照《Linux系统安装软件的两个命令》的方法完成,然后打开软件。

图3 安装运行Chatbox

4.运行打开软件,会弹出配置窗口,模型提供方选择已在运行的Ollama服务,API域名会自动识别。然后选择自己之前安装的DeepSeek模型,高级选项可以默认,保存即可。

图4 配置Chatbox

5.Chatbox软件配置保存后即进入正常使用界面。左侧是对话选项卡,可以选择只聊天儿、软件开发、翻译等功能。右侧是会话窗口,下方输入信息,上方是DeepSeek的回复内容。

图5 开始使用

Chatbox可视化智能助手的使用,让DeepSeek操作更简单方便,能够方便更多的用户使用它。

### 将本地安装DeepSeek 连接到 Chatbox 为了使本地安装DeepSeek 能够与 Chatbox 成功连接并正常工作,在完成各个组件的安装之后,重点在于正确配置 Chatbox 的设置选项。 #### 配置 Ollama 和 DeepSeek 确保已经按照官方指南完成了 Ollama 及其支持下的 DeepSeek 版本的安装过程[^1]。这通常涉及访问官方网站下载合适的安装文件,并遵循提示逐步完成安装程序的操作。 #### 启动和验证 DeepSeek 服务 在命令行工具中启动 DeepSeek 模型的服务端口,具体可以通过运行如下指令来实现: ```bash ollama run deepseek-r1:1.5b ``` 这条命令会启动 DeepSeek 模型作为后台服务,准备接收来自前端应用(如 Chatbox)发出的任务请求[^2]。 #### 设置 Chatbox 使用本地模型 当上述准备工作完成后,打开已安装好的 Chatbox 应用程序。首次启动时可能会显示初始化向导页面;如果之前已有过配置,则可以直接进入应用程序主界面中的“设置”部分。 在 Chatbox 中进行以下操作以指定使用本地部署DeepSeek 模型: - 寻找关于 API 或者模型源的选择项; - 选择“使用本地模型”的选项; - 对于 API 类型应选取 “Ollama API”,这是为了让 Chatbox 知道如何与本地运行着的 DeepSeek 实例通信; - 在模型列表里找到 `deepseek-r1:1.5b` 并选中它; - 完成这些设定后记得点击保存按钮确认更改。 经过这样的配置流程之后,Chatbox 即可成功链接到本地环境中运行的 DeepSeek AI 助手,从而能够在不依赖互联网连接的情况下提供智能化交互体验
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值