使用Deepseek搭建本地知识库-Cherry Studio

Cherry Studio

支持多模型服务的 Windows/macOS GPT 客户端

GITHUB:CherryHQ/cherry-studio
优快云资源:cherry studio
Cherry Studio 是一个支持多模型服务的桌面客户端,为专业用户而打造,内置 30 多个行业的智能助手,帮助用户在多种场景下提升工作效率。

Cherry Studio 0.9.1更新后有一个知识库功能,我们可以使用 硅基+Cherry Studio 来实现本地知识库,帮你更好的获取需要的内容,废话不多说直接开始。

  1. 首先去 硅基(点我去注册) 注册个账号,因为需要配置 Embedding(嵌入式模型),注册成功后你会免费获得14R(2000W Token)

  2. 安装 CherryStudio 客户端,官网提供了全平台 Mac/Win/Linux 客户端

### 使用 Ollama 和 DeepSeek 构建本地知识库 #### 工具简介 Ollama 是一种用于管理和运行大型语言模型 (LLM) 的工具,支持多种预训练模型并允许用户轻松部署这些模型到本地环境。DeepSeek 则是一系列高性能的大规模语言模型,能够提供高质量的回答和推理能力[^3]。 为了构建一个高效的本地知识库系统,可以结合 Dify 或 Cherry Studio 进行前端界面设计以及数据管理功能扩展,同时利用 BGE-M3 向量模型实现文档嵌入与检索优化[^2]。 #### 安装配置流程 以下是具体操作指南: 1. **安装 Ollama** 首先下载最新版本的 Ollama 并设置自定义存储路径以便更好地控制磁盘空间分配情况。 ```bash curl -fsSL https://ollama.ai/install.sh | sh ollama install deepseek/... --path /your/custom/path/ ``` 2. **加载所需模型** 下载适合当前应用场景的目标 LLM 及其配套组件(如 embedding generator),这里推荐选用 DeepSeek 系列中的某一款作为主要对话引擎,并搭配高效能向量化解决方案——BGE-M3 来增强语义理解效果[^1]。 3. **准备待处理资料集** 将所有希望纳入索引范围内的文件整理成统一格式(例如纯文本、HTML 页面等),并通过脚本批量转换为标准化输入形式供后续环节调用。 4. **执行内容解析与特征提取** 借助专门开发的数据管道技术栈完成自然语言分词、关键词抽取等工作项;随后运用选定好的 Embedding 方法生成对应维度表示向量集合保存至数据库表单当中等待查询匹配时刻到来时发挥作用。 5. **集成展示层逻辑代码片段** 设计友好的交互式图形化用户接口(GUI),让用户可以通过简单直观的操作方式提交问题请求得到即时反馈结果。此部分可参考官方样例项目或者第三方贡献资源自行调整样式风格满足个性化需求。 ```python from langchain.embeddings import HuggingFaceEmbeddings embedding_model = "BAAI/bge-base-en-v1.5" embedder = HuggingFaceEmbeddings(model_name=embedding_model) def embed_text(texts): embeddings = embedder.encode(texts, normalize_embeddings=True) return embeddings.tolist() ``` #### 注意事项 在整个实施过程中需要注意保持各子模块间良好协作关系的同时兼顾性能表现指标评估工作,确保最终产物既具备实用性又能达到预期质量标准水平线之上。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值