DeepSeek+CherryStudio个人知识库构建

  前面介绍了本地部署DeepSeek-R1,也有很多小伙伴们使用三方模型服务,开放的API调用,更加方便日常工作生活的使用,仍有隐私内容和个人知识想让DeepSeek模型引用,如何打造个人知识库,本地DeepSeek-R1 + 个人知识库打造,开启自己的RAG。

推荐最近很火的工具 Cherry Studio - 全能的AI助手免费且简单易用。

一 安装CherryStudio

下载地址:Cherry Studio - 全能的AI助手,根据类型下载,笔者MacBookPro为例子。

下载完成后正常Mac安装:

二 配置Cherry Studio

如下提供2种方式配置样例,分别用1第三方服务硅基流动;2本地Ollama部署模型方式:

方式一(第三方DeepSeek服务API方式):

1 可选择多种API进行配置,可采用硅基流动的一个在线API,目前免费注册。如下演示使用为在线API调用,选择注册的用户点击登陆-获取一个API密钥(登陆就可获取)。

选择左下角设置,选择模型服务,选择调用API密钥方式(登陆后授权获取一串密钥)。

2 继续找到对应模型服务中,绿色-【管理按钮】,选择一个LLM的推理模型DeepSeek-R1模型用于对话交互。

3 选择嵌入模型BAAI/bge-m3,也可尝试其他内嵌模型:BAAI/bge-m3是BAAI开源的嵌入模型,主要用于生成文本嵌入(text embeddings)。它是一个多功能、多语言、多粒度的模型用于检索本地知识库。

方式二:使用本地Ollama部署方式:

1 使用本地Ollama方式部署(参考之前博客:本地部署DeepSeek精简易懂(Ollama支持多种LLM模型)-优快云博客):

2 本地使用Ollama同样需要额外下载一个 bge-m3 模型用于检索本地知识库,打开命令终端

命令:

ollama pull bge-m3

完成后为success。

3 开启-模型服务-Ollama-选择绿色按钮-管理,将本地运行的模型进行添加:

三 本地个人知识库添加

1 如下找到知识库按钮,点击+添加,添加知识库,填写名称,并选择嵌入模型BAAI/bge-m3。

2 编辑自己的知识库文件,可以是doc,xlsx,pdf等,也可以添加整个目录。

四 使用本地知识库问答

1选择对话窗口后,选择刚才创建的本地知识库:-本地知识库1,并向DeepSeek-R1提问:本地知识库包含的知识内容,回答可看到其引用来源为本地目录中的: 本地知识库文档1.docx

2 也可切换本地Ollama模型进行问答:

3 下面我们可以好好整理一下个人知识库了,这样DeepSeek也可以让他参考我们自己的本地知识库来思考给出答案了。(点赞关注,十分感谢大家👍)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值