Cherry Studio 搭建个人知识库,太好用了!(按头收藏)

今天我就再给大家推荐一款非常适合我们国人的 AI 助手神器 – Cherry Studio。

这款工具使用简单,自带大量提示词模板,省掉了我们需要针对不同场景优化提示词的时间;还支持生成图片、翻译、搭建个人知识库等诸多功能。

总而言之,Cherry Studio 上手简单,功能强大,可以说重新定义了 AI 工具,如果只推荐一款 AI 终端应用的话,那么我推荐它,赶紧用起来吧!!

安装 Cherry Studio

打开 Cherry Studio 下载页面 https://docs.cherry-ai.com/cherrystudio/download ,根据自己的系统下载。

下载完成后点击安装,过程很简单,这里就不再赘述了。

安装完成后我们启动 Cherry Studio,开始配置。

配置 Cherry Studio

Cherry Studio支持主流大模型服务,配置过程也基本相似,这里我说下几个常用模型服务的配置过程。

你可以根据自己的需求配置,建议多配置几个模型服务,这样在不同聊天窗口中可以使用不同的模型服务。

我自己通过 DeepSeek、Github model、OpenRouter 这三个模型,让 Cherry Studio 同时免费支持 DeepSeek、Gemini、GPT-4o 等几个大语言模型。

配置 DeepSeek 模型服务

首先点击左下角的“设置”按钮,然后点击“模型服务”,接着点击“深度求索”,打开 https://platform.deepseek.com/api_keys 页面,创建 API key 后,复制到 Cherry Studio 的 “API 密钥” 处,再点击 “检查”。

在弹出的对话框中选择 “DeepSeek Reasoner”,点击“确定”。

配置完成后,点击右上角的开启按钮开启 DeepSeek。

配置 OpenRouter 模型服务

首先我们在浏览器中打开 https://openrouter.ai/ 登录,如果没有账号的话,可以注册一个。

输入名称,点击 Create 创建 Key。

然后点击复制按钮。

回到 Cherry Studio,我们把复制的 Key 粘贴到 “API 密钥” 处,然后向下滚动到底,点击“管理”。

我们只需要点击右侧的**+**号,就可以把自己想用的服务添加到配置中。

免费服务有次数限制,一段时间频繁使用的话会提示超过限制次数了。如果你本来用的就少,使用免费的就行了。

配置完成后,同样点击右上角的“开启”按钮开启 OpenRouter 服务。

配置 Github models 模型服务

前面我们提到过 Github 提供了一些免费的大语言模型,如 DeepSeek R1、GPT-4o 等,对于国内无法使用 OpenAI 服务的人来说,Github model 是个不错的方案。

首先我们打开 https://github.com/marketplace/models ,翻到下面可以看到 OpenAI GPT-4o 和 DeepSeek-R1 等几个模型。

我们随便点击一个大语言模型,如 OpenAI GPT-4o,然后会跳到该模型的对话框。

接着点击 “Use this mode” 去创建 Key。

在弹出的对话框中点击 “Get developer key”。

点击 “Generate new token”,选择第一个 “Generate new token”。

填写 Token name 和有效期,然后点击 “Generate token”。

点击复制按钮,将其粘贴到 Cherry Stuido 的 “API 密钥” 处。

然后点击“添加”,模型 ID 输出 DeepSeek-R1,点击“添加模型”。

然后点击“检查”,根据自己的需求选择模型,然后点击右上角的“开启”按钮开启 Github models。

其他模型服务的配置大致和这三个都差不多,你可以根据自己的需求自行配置。

设置默认模型

Cherry Studio 支持不同的对话使用不同的模型,我们可以设置默认的模型。

点击设置 -> 默认模型,定义默认助手模型,我这里配置的是 DeepSeek-R1。

Cherry Studio 助手

配置完成后,我们就可以开始使用 Cherry Studio 啦。

我们可以根据不同的需求创建不同的助手,比如翻译助手、图表助手、写作助手、八卦小王子等各种各样你想要的需求。

点击聊天图标,点击“添加助手”,输入助手名,点击“新建”创建助手。

创建完助手后,可以点击最上面的模型来切换大语言模型,比如我让 GPT-4o 帮我写个小游戏。

生成完后点击“预览”就能玩游戏了。

效果如下。

没想到写代码这么简单😭!

为方便我们使用,Cherry Studio 也给我们添加了很多智能体,只需要点击就能让这些智能体成为我们的助手!

生成图片

Cherry Studio 自带多种文生图模型,比如 Stable Diffusion,Janus Pro 等,省去了你在本地搭建服务的繁琐成本,太省力了有木有!

下图是我用 SD 简单生成的一个美女图片。

在使用时,我们可以用 DeepSeek 生成一段 Stable Diffusion 的提示词,然后直接复制过来就行了。

个人知识库

Cherry Studio 的个人知识库也非常好用,下面是配置个人知识库的过程。

首先点击知识库,添加一个知识库。

上传文件和设置网站,这里我仍以 DeepSeek 助手为例,上传 PDF 和配置网址。

然后回到对话窗口,创建一个“AI 学习助手”,右键选择“编辑助手”。

先配置“模型设置”,选择 DeepSeek R1,然后点击“知识库设置”,选择刚才创建的知识库。

配置完成后,我们就可以问他问题了,比如我问 “Deepseek 有什么好用的对话方式”

太贴心啦!

常见报错

在使用过程中可能会遇到一些报错代码,这些报错代码表示的意思如下:

  • 400: 请求错误,请检查请求参数是否正确。如果修改了模型设置,请重置到默认设置

  • 401: 身份验证失败,请检查 API 密钥是否正确

  • 403: 禁止访问,请检查是否实名认证,或联系服务商询问被禁止原因

  • 404: 模型不存在或者请求路径错误

  • 429: 请求过多,请稍后再试

  • 500: 服务器错误,请稍后再试

  • 502: 网关错误,请稍后再试

  • 503: 服务不可用,请稍后再试

  • 504: 网关超时,请稍后再试

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

### 使用Cherry Studio搭建本地知识库 #### 准备工作 为了使用Cherry Studio搭建DeepSeek本地知识库,需先完成环境准备。确保拥有可运行的Python环境以及必要的依赖项安装工具如`pip`[^1]。 #### 获取源码 前往GitHub仓库下载或克隆项目代码至本地机器上。通过命令行执行如下操作来获取最新版本的Cherry Studio源码: ```bash git clone https://github.com/kangfenmao/cherry-studio.git cd cherry-studio ``` #### 安装依赖包 进入项目目录后,按照官方文档指示安装所需的Python库和其他软件组件。通常情况下,这一步骤可以通过执行以下脚本来自动完成: ```bash pip install -r requirements.txt ``` #### 配置Embedding服务 对于嵌入式模型的支持,可以选择第三方服务商提供的API接口,比如硅基流动平台。注册账户并申请相应的API密钥之后,在配置文件中填入这些凭证信息以便后续调用远程计算资源[^3]。 #### 启动应用服务器 一切就绪后,可以启动应用程序的服务端部分。一般而言,此过程涉及设置一些环境变量,并最终运行一个简单的HTTP服务器监听特定端口上的请求: ```bash export DEEPSEEK_API_KEY="your_api_key_here" python app.py ``` 此时应该能够在浏览器里打开指定URL地址查看到已部署成功的Web界面[^2]。 #### 数据导入与管理 最后就是将自有资料集上传至系统内形成个性化知识图谱的过程了。这部分功能可能需要借助图形界面上的相关按钮实现;也可能支持批量处理CSV/JSON格式的数据文件作为输入源之一。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值