Minima 开源项目教程
1. 项目介绍
Minima 是一个在本地运行的对话式 RAG(检索增强生成)系统,它支持与 ChatGPT 和 MCP(Anthropic Claude 应用)集成。Minima 可以完全在本地环境中运行,无需依赖外部服务如 ChatGPT 或 Claude。所有神经网络(LLM、重排器、嵌入模型)都在您的云服务器或个人电脑上运行,确保数据的安全性。
Minima 目前支持以下三种模式:
- 独立安装:完全在本地环境以容器方式运行,无外部依赖。
- 自定义 GPT:使用 ChatGPT 应用或网页版查询本地文档。
- Anthropic Claude:使用 Anthropic Claude 应用查询本地文档。
2. 项目快速启动
以下是在本地环境快速启动 Minima 的步骤:
首先,确保您已经安装了 Docker 和 Docker Compose。
-
克隆项目到本地:
git clone https://github.com/dmayboroda/minima.git cd minima
-
创建
.env
文件,并填入必要的环境变量。参考env.sample
文件:cp env.sample .env
-
根据您选择的模式,运行相应的 Docker Compose 命令:
-
对于完全本地安装:
docker compose -f docker-compose-ollama.yml --env-file .env up --build
-
对于集成 ChatGPT 的安装:
docker compose -f docker-compose-chatgpt.yml --env-file .env up --build
-
对于集成 MCP 的安装:
docker compose -f docker-compose-mcp.yml --env-file .env up --build
-
-
如果您使用了 ChatGPT,启动后会在终端显示一个 OTP,复制这个 OTP 并在 Minima GPT 中使用。
-
要使用 Minima 的聊天界面,请在浏览器中访问
http://localhost:3000
。
3. 应用案例和最佳实践
- 案例一:在企业内部构建知识库问答系统,使用 Minima 的独立安装模式,确保数据不外泄。
- 案例二:在研究环境中,使用自定义 GPT 模式,以便研究人员能够直接在本地文档上进行搜索和问答。
- 最佳实践:为了获得更好的性能和效果,建议根据实际需求调整嵌入模型和重排器模型。
4. 典型生态项目
Minima 可以与以下典型生态项目结合使用:
- Docker:容器化部署,易于管理和扩展。
- Qdrant:用于存储和检索向量嵌入的数据库。
- LangChain:用于构建基于语言模型的应用程序。
- Ollama:提供多种预训练语言模型。
以上就是 Minima 的基本介绍和快速启动指南。希望这个教程能够帮助您更好地了解和使用 Minima 项目。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考