本地知识库搭建完全指南
📝 概述
本文将详细介绍如何搭建本地知识库,主要分为两个核心步骤:
- 安装并配置 Ollama
- 安装并设置 AnythingLLM
🚀 第一步:安装 Ollama
1. Windows 系统安装指南
💡 按照以下步骤在 Windows 系统上安装 Ollama:
-
下载安装包
- 访问 Ollama 官方网站
- 下载 Windows 版安装程序
OllamaSetup.exe
-
执行安装
- 双击运行
OllamaSetup.exe
- 按提示完成安装
- 自定义安装路径(可选):
OllamaSetup.exe /DIR="d:\some\location"
- 双击运行
-
验证安装
- 打开命令提示符或 PowerShell
- 运行
ollama --version
- 显示版本号即表示安装成功
2. macOS 系统安装指南
-
下载安装包
- 访问 Ollama 官方网站
- 下载 macOS 版安装程序
Ollama-darwin.zip
-
执行安装
- 双击解压安装包
- 按提示完成安装
-
验证安装
- 打开终端
- 运行
ollama --version
- 显示版本号即表示安装成功
3. Linux 系统安装指南
-
下载并安装
- 访问 Ollama 官方网站
- 运行安装命令:
curl -fsSL https://ollama.com/install.sh | bash
-
验证安装
- 运行
ollama --version
- 显示版本号即表示安装成功
- 运行
4. Docker 安装方式
# 1. 拉取镜像
docker pull ollama/ollama
# 2. 运行容器
docker run -p 11434:11434 ollama/ollama
# 3. 访问服务
# 浏览器访问 http://localhost:11434
⚙️ Ollama 环境变量配置
如果遇到
ollama --version
命令不正常,通常是因为环境变量未正确配置
Windows 系统配置
-
定位安装路径
- 默认路径:
{install-drive}:\Program Files\Ollama\
- 或自定义安装路径
- 默认路径:
-
添加环境变量
- 打开系统环境变量设置
- 在 Path 变量中添加 Ollama 的 bin 目录
- 例如:
D:\Ollama\bin
Linux/macOS 系统配置
-
编辑配置文件
# Linux:编辑 ~/.bashrc 或 ~/.zshrc # macOS:编辑 ~/.bashrc 或 ~/.zshrc nano ~/.bashrc
-
添加环境变量
export PATH=$PATH:/path/to/ollama/bin
-
使配置生效
source ~/.bashrc # 或 source ~/.zshrc
📥 Ollama 模型下载
-
安装 deepseek-r1:14b 模型
ollama run deepseek-r1:14b
-
安装 embedder 模型
ollama pull bge-m3
💡 默认访问地址:http://127.0.0.1:11434
🎯 第二步:安装 AnythingLLM
系统要求
- 硬件配置:
- 最低内存:8GB
- 推荐内存:16GB 或以上
- 软件依赖:
- Ollama 已安装
- Ollama 模型正常运行
Windows 系统安装步骤
-
下载安装包
- 访问 AnythingLLM 官网
- 点击 “Download for Windows”
-
安装与配置
- 运行安装程序
- 按提示完成安装
- 启动 AnythingLLM 应用
-
初始化设置
- 选择 Ollama 作为模型提供商
- 配置向量数据库(推荐 LanceDB)
- 创建工作区
macOS 系统安装步骤
-
下载安装包
- 访问 AnythingLLM 官网
- 点击 “Download for macOS”
-
安装步骤
- 打开 DMG 文件
- 拖入应用程序文件夹
- 启动应用
-
初始化设置
- 选择 Ollama 作为模型提供商
- 配置向量数据库
- 创建工作区
Linux 系统安装步骤
-
下载安装包
- 访问 AnythingLLM 官网
- 选择适合的安装包(DEB/RPM)
-
安装命令
# Debian 系统 sudo dpkg -i anythingllm.deb # Red Hat 系统 sudo rpm -ivh anythingllm.rpm
-
启动与配置
- 运行
anythingllm
命令 - 完成初始化配置
- 运行
Docker 版本安装
# 1. 克隆仓库
git clone https://github.com/Mintplex-Labs/anything-llm.git
cd anything-llm
# 2. 启动服务
docker-compose up -d
# 3. 访问应用
# 浏览器访问 http://localhost:3000
🎮 AnythingLLM 使用流程
-
系统配置
- 确认 Ollama 服务正常运行
- 检查模型可用性
2.设置Anythingllm
-
创建工作区
- 设置工作区名称
- 配置工作区参数
-
模型设置
- 选择已下载的 Ollama 模型
- 调整模型参数
-
上传文档
- 支持多种文档格式
- 自动进行向量化处理
-
知识库查询
- 输入查询问题
- 获取基于知识库的回答
🔔 注意:请确保按照顺序完成每个步骤,这样可以确保知识库的正常运行。