使用 Python 构建本地 AI Agent(Ollama + LangChain + RAG)
1. 前言
在本教程中,我们将使用 Ollama、LangChain 和 ChromaDB 构建一个完全 本地运行且免费的 AI Agent,具备 RAG(检索增强生成,Retrieval-Augmented Generation) 能力。这意味着 AI Agent 不仅能够基于模型生成答案,还能从本地文档中检索相关信息,以提高回答的准确性和专业性。
2. 环境准备
在开始之前,请确保您的环境满足以下要求:
- 操作系统:Windows / macOS / Linux
- Python 版本:>= 3.8
- 依赖工具:Docker(可选)、Ollama、LangChain、ChromaDB
2.1 安装 Python
如果您的计算机未安装 Python,可以从 Python 官网 下载并安装。
python --version
# 确保 Python 版本 >= 3.8
2.2 安装 Ollama
Ollama 是一个可以在本地运行 LLM(大语言模型)的平台,支持多个开源模型(如 LLaMA、Mistral)。
-
Windows(使用 WSL2)
-
确保 Windows 已安装 WSL2(Windows Subsystem for Linux)。
-
在 WSL2 终端中运行:
curl -fsSL https://ollama.ai/install.sh | sh
-
-
macOS / Linux
运行以下命令安装 Ollama:curl -fsSL https://ollama.ai/install.sh | sh
-
检查是否安装成功
ollama list
这将列出已安装的模型,如果为空,我们需要下载模型。
2.3 下载 LLM 模型
这里我们使用 Mistral 7B 模型作为示例:
ollama pull mistral
此命令会下载 Mistral 7B 并在本地缓存。