Minima项目安装与配置指南
1. 项目基础介绍
Minima是一个开源的本地化对话RAG(Retrieval-Augmented Generation)系统,它可以在不依赖外部服务的情况下,通过容器化技术运行。该项目支持多种模式,包括完全独立的本地化安装、与ChatGPT集成的自定义GPT查询,以及使用Anthropic Claude应用查询本地文档。Minima的主要编程语言包括Python、TypeScript、JavaScript等。
2. 项目使用的关键技术和框架
- 容器化技术:使用Docker和docker-compose来管理应用程序的容器化部署。
- 自然语言处理(NLP):集成了Sentence Transformer和Ollama等NLP模型进行文本嵌入和语言建模。
- 向量数据库:使用Qdrant作为向量数据库,存储和检索文本嵌入向量。
- 深度学习框架:如TensorFlow或PyTorch可能用于模型的训练和推理。
- Web框架:使用Electron构建桌面用户界面。
3. 项目安装和配置准备工作
在开始安装Minima之前,请确保您的系统已经安装以下软件和依赖:
- Docker:用于容器化部署。
- Docker Compose:用于定义和运行多容器Docker应用程序。
- Python 3.10或更高版本:用于部分项目组件。
- Node.js和npm:用于前端构建和打包。
详细安装步骤
-
克隆项目仓库
打开终端,使用以下命令克隆Minima项目仓库:
git clone https://github.com/dmayboroda/minima.git cd minima
-
创建.env文件
在项目根目录下创建一个
.env
文件,并复制env.sample
文件中的所有环境变量到.env
文件中。cp env.sample .env
-
配置环境变量
根据您的需求编辑
.env
文件,设置以下变量:LOCAL_FILES_PATH
:指定索引的根文件夹路径。EMBEDDING_MODEL_ID
:指定要使用的嵌入模型。EMBEDDING_SIZE
:定义嵌入维度。OLLAMA_MODEL
:设置Ollama模型。RERANKER_MODEL
:指定重排器模型。USER_ID
和PASSWORD
:如果使用ChatGPT集成,需要提供。
-
启动Minima服务
根据您选择的模式,使用以下命令之一启动Minima服务:
-
完全本地安装:
docker-compose -f docker-compose-ollama.yml --env-file .env up --build
-
ChatGPT集成安装:
docker-compose -f docker-compose-chatgpt.yml --env-file .env up --build
-
MCP集成安装:
docker-compose -f docker-compose-mcp.yml --env-file .env up --build
-
-
使用ChatGPT集成
如果您启用了ChatGPT集成,在启动容器后,复制控制台中显示的一次性密码(OTP),并在Minima GPT界面中使用该密码。
-
启动Minima Electron应用
切换到
electron
目录,安装Node.js依赖,并启动应用:cd electron npm install npm start
打开浏览器,访问
http://localhost:3000
即可使用Minima。
以上步骤为Minima项目的详细安装和配置指南,按照这些步骤操作,您应该能够成功部署和运行Minima。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考