DeepSeek+本地知识库
一、安装 BAAI/bge-m3 模型
1. 通过 Ollama 本地部署
步骤:
-
安装 Ollama
-
访问 Ollama 官网 (https://ollama.com/download)
-
如果太慢,可以替换:
https://ollama.ruanmao.net
-
下载对应安装包,双击完成安装。
-
拉取 BAAI/bge-m3 模型
打开终端(Terminal)(建议以管理员身份),输入以下命令:
ollama pull bge-m3
类似输出:
(base) MacBook-Pro:~ dajiangyang$ ollama pull bge-m3
pulling manifest
pulling daec91ffb5dd... 100% ▕████████████████████████████████████████████████████████████████████████████▏ 1.2 GB pulling a406579cd136... 100% ▕████████████████████████████████████████████████████████████████████████████ 1.1 KB pulling 0c4c9c2a325f... 100% ▕████████████████████████████████████████████████████████████████████████████▏ 337 B
verifying sha256 digest
writing manifest
success
等待下载完成(约 1.2 GB),显示 success 即表示成功。
二、基于Cherry Studio搭建(首选)
cherry Studio 文本分割不能选择文本长度和重叠度。
2.1 下载cherry studio
根据自己的环境下载cherry studio
https://cherry-ai.com/download
安装的时候,注意安装到其他磁盘,不要在c盘安装。
2.2 建立本地模型知识库
2.2.1 配置本地cherry studio中DeepSeek
点击配置(按钮1指示),找到“模型服务”,再找到“深度求索”,将API密钥输入,并打开“ON”开关。
2.2.2 配置本地Ollama
点击管理(按钮1指示)
2.2.3 知识库配置
点击“添加”
点击“确定”
2.2.4 使用知识库
¥¥¥ END ¥¥¥
附录:
1、BAAI/BGE-M3 简介
BAAI/BGE-M3 是由北京智源研究院(BAAI)和中国科学技术大学联合开发的开源语义向量模型,专注于多语言、多粒度和多功能检索任务。该模型支持超过100种语言,最大输入长度达8192词符,能够处理句子、段落、篇章及文档等不同粒度的文本。其核心创新在于集成三种检索模式:
- 稠密检索:通过特殊标记[CLS]生成单个向量进行语义匹配;
- 稀疏检索:基于词项权重实现类似BM25的关键词检索;
- 多向量检索:利用细粒度交互提升相关性判断精度。
BGE-M3通过混合检索(联合三种模式)在多项评测中表现领先,尤其在多语言和跨语言任务中显著优于基线模型(如mE5)。其训练数据结合无监督语料、高质量标注数据和GPT-3.5生成的合成数据,并通过自学习蒸馏和长文本优化技术(如MCLS)提升性能。该模型适用于搜索、问答及RAG(检索增强生成)场景,且开源免费商用,技术细节和模型已发布于Hugging Face平台。