RAGFlow 部署方式
- 基于 Docker 部署:
- 前置条件:需要满足一定的硬件配置,如 CPU ≥ 4 核,RAM ≥ 16 GB,Disk ≥ 50 GB,同时安装 Docker ≥ 24.0.0 与 Docker Compose ≥ v2.26.1。
- 操作步骤:首先克隆 RAGFlow 的仓库,进入其 Docker 文件夹,利用提前编译好的 Docker 镜像启动服务器。启动成功后,通过浏览器访问指定地址进行注册登录。
- 基于 Kubernetes 部署:RAGFlow 官方提供了 Kubernetes 部署的文档,这种方式适合在大规模分布式环境中部署 RAGFlow,能够更好地管理资源和扩展服务。
RAGFlow 与 LLM 集成方式
- 通过 Ollama 集成:
- 安装 Ollama:Ollama 是一款本地化运行大语言模型的开源工具,可在本地创建、运行和管理多种模型。安装完成后,使用 ollama pull 命令下载所需的 LLM 模型。
- 在 RAGFlow 中添加 LLM 模型:在 RAGFlow 的界面中找到模型供应商,选择 Ollama 并添加模型。如果 RAGFlow 部署为 Docker,需要映射 Docker 外面的地址。
- 通过 API 集成:
- 配置 LLM 的 API:在 RAGFlow 的界面中,点击右上角的 logo 进入 Model providers 页面,点击所需的 LLM 并更新其 API 密钥。
- 选择默认模型:点击 System Model Settings,选择默认的对话模型、嵌入模型等。
- 通过本地部署的 LLM 集成:RAGFlow 支持部署 LLMs 本地使用,除了 Ollama,还


最低0.47元/天 解锁文章
2897

被折叠的 条评论
为什么被折叠?



