第三十三篇-Ollama+AnythingLLM基本集成

AnythingLLM

AnythingLLM专属私有知识库,可以使用本地OllamaLLM模型,可以上传文件,基于文件回答问题

启动ollama

参考
第二十五篇-Ollama-离线安装
第二十四篇-Ollama-在线安装

下载安装AnythingLLM

https://useanything.com/download

AnythingLLMDesktop.exe
点击安装,稍微等待一下

配置Workspace-LLM

第一次启动会需要创建一个Workspace,输入一个名称

在这里插入图片描述
点击设置按钮
在这里插入图片描述
弹出配置界面
在这里插入图片描述
选择LLM Preference配置LLM
在这里插入图片描述
可以选择你有的LLM资源,我选择本地Ollama
在这里插入图片描述
配置好LLM点击左下角回退Workspace界面

选中一个Workspace,可以问答了
在这里插入图片描述

配置Workspace-上传文件

在这里插入图片描述
点击上传按钮
在这里插入图片描述
点击选择文件,选择一个你要上传的文件,点击move to workspace
在这里插入图片描述
点击 Save And Embed

稍微等待一下,就可以基于这个文档回答问题了

### 关于OllamaAnythingLLM的技术介绍 #### Ollama简介 Ollama是一个开源的大规模语言模型服务工具,旨在帮助用户迅速在本地环境中启动并运行大规模的语言模型。借助此平台,用户仅需执行单一命令即可轻松部署诸如Llama 2乃至最新的Llama 3等开放源码版本的大规模语言模型到Docker容器内[^2]。 #### AnythingLLM概述 AnythingLLM提供了一种灵活的选择方案——自带的`AnythingLLMEmbedder`用于嵌入功能,并默认配置了一个高效的内置向量数据库LanceDB来支持其操作环境中的数据存储需求[^1]。 ### 实际应用案例分析 #### 部署流程说明 对于希望利用上述两项技术构建个人项目的开发者而言,可以从以下几个方面入手: - **环境准备**:确保已安装好必要的依赖项,比如Python解释器及相关库文件; - **获取资源包**:下载官方发布的最新版Ollama镜像以及AnythingLLM的相关组件; - **编写脚本**:创建适合特定应用场景的工作流定义文档(如YAML格式),指定所需加载的基础模型和其他参数设置; ```yaml version: '3' services: ollama_service: image: "ollama/ollama" ports: - "8080:8080" anythingllm_service: build: . depends_on: - ollama_service ``` - **测试验证**:按照官方指南完成初步集成后的基本功能性检测工作,确认各模块间交互正常无误。 ### 开发者社区贡献 考虑到当前网络上有关LLM方面的资料相对匮乏,新手入门难度较大这一现状,积极参与由Ollama发起的各种交流活动显得尤为重要。这不仅有助于降低学习曲线,还能促进整个生态系统健康发展[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值