本地安装cherry studio运行ollama模型,搭建个人知识库

上次使用anything llm搭建知识库发现不灵敏,这次换了cherry studio来搭建知识库

下载地址:Cherry Studio 官方网站 - 全能的AI助手

1、设置模型平台

2、选择ollama模型和词嵌入模型dmeta-embedding-zh-下载地址shaw/dmeta-embedding-zh

3、建立知识库

选择文件上传

使用模型选择我们的知识库,搜索答案就可以将文档的内容搜索出来了,网页版的其实也可以做到,我本地跑这个cpu立马就上去了,

文档内容

提问

接下来可以继续完善你的知识库搜索

同样的问题问anything llm的知识库,感觉根本没啥用,没读取到

目前个人感觉知识库检索这个是最好用的

<think>好的,用户想了解Cherry Studio与嵌入式Ollama的集成和使用方法。首先,我需要回忆一下之前提供的引用内容,确保信息准确。引用[1]提到Cherry Studio配置Ollama API和嵌入模型bge-m3,用于知识库搭建和智能问答。引用[2]比较了AnythingLLM和Cherry Studio,用户因为安装问题选择了后者。引用[3]是Ollama的GitHub链接,里面有社区集成的信息。 用户的问题集中在集成和使用教程上,可能需要分步骤说明。首先,安装Cherry Studio,然后配置Ollama作为嵌入式模型,接着安装嵌入模型,创建知识库,最后进行问答测试。需要确保每个步骤清晰,并且使用正确的命令和配置示例。比如,安装Cherry Studio可能需要Docker,配置Ollama的API地址,安装模型的具体命令如ollama run bge-m3等。同时,要提醒用户注意端口设置和模型加载的常见问题。此外,用户可能遇到模型加载失败或API连接问题,需要给出解决建议。最后,生成相关问题时,要考虑用户可能的后续需求,比如优化配置、模型选择或高级功能。整个过程需要保持逻辑连贯,语言简洁,符合用户的实际操作流程。</think>### Cherry Studio与嵌入式Ollama集成使用教程 #### 一、环境准备 1. **安装Ollama**(需先完成基础环境配置) ```bash curl -fsSL https://ollama.ai/install.sh | sh ``` 建议选择支持本地部署的模型如$DeepSeek-R1$或$Llama3$[^3] 2. **部署Cherry Studio** 通过Docker快速部署: ```bash docker run -d -p 8000:8000 --name cherry-studio cherrylabs/cherry-studio:latest ``` #### 二、关键配置步骤 1. **API对接配置** 在Cherry Studio的`config.yml`中添加: ```yaml ollama: endpoint: "http://localhost:11434" models: - name: "deepseek-r1" embedding_model: "bge-m3" ``` 2. **嵌入模型安装** ```bash ollama run bge-m3 ``` 该模型支持中英文128K上下文窗口[^1] #### 三、知识库搭建流程 1. 在Cherry Studio控制台创建新知识库 2. 上传PDF/Word/TXT格式文档 3. 选择`bge-m3`作为嵌入模型 4. 设置Ollama为推理引擎 #### 四、智能问答测试 ```python from cherry_studio import Client client = Client(api_key="YOUR_KEY") response = client.ask("如何配置Ollama的API端口?", knowledge_base="tech_docs") print(response) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值