**
一、ollama安装
**
访问 Ollama 官网:前往 Ollama 官网,点击 Download 按钮。
入门级:1.5B 版本,适合初步测试。
中端:7B 或 8B 版本,适合大多数消费级 GPU。
高性能:14B、32B 或 70B 版本,适合高端 GPU。
二、安装并配置 Cherry Studio
CherryStudio地址:https://docs.cherry-ai.com/cherrystudio/download
配置模型服务:打开 Cherry Studio,进入 “模型服务” 设置。添加 Ollama 作为模型服务提供商,输入 Ollama 服务的地址(默认为 http://localhost:11434)。
添加 DeepSeek 模型:在 Cherry Studio 中,点击 “管理” 按钮,选择 “添加模型”。输入模型名称 deepseek-r1:8b 或其他版本,点击 “添加”。
测试连通性,点击 “检查” 按钮,看到绿色对勾表示测试通过。
三、本地知识库
下载嵌入模型:我们下载 BGE-M3,它是由 BAAI(北京智源人工智能研究院)发布的多语言长文本向量检索模型。BGE-M3 支持超过 100 种语言,训练数据覆盖了 170 多种语言。通过如下命令下载这个嵌入模型。ollama pull bge-m3
添加嵌入模型:点击 “管理” 按钮,选择 “嵌入”,添加嵌入模型(如 bge-m3),用于文档拆分和理解。点击 “确认” 后,嵌入模型将被添加到系统中。
添加本地知识库:点击左侧的 “知识库” 按钮,选择并添加本地文档。填写知识库名称,选择嵌入模型。上传本地文件(支持文件、目录、网址、笔记等),例如你要学习的一堆文献。
聊天、提问:在聊天区域输入问题,Cherry Studio 将调用 DeepSeek 模型,结合知识库内容生成回答。通过上述步骤,你可以在本地成功部署 DeepSeek 模型,构建了本地知识库,并通过 Cherry Studio 的可视化界面进行交互。
新建助手—编辑助手–选择模型及指数库