RAGFlow支持模型:多厂商LLM与嵌入模型的兼容列表
RAGFlow作为基于深度文档理解的开源RAG(检索增强生成)引擎,提供了对多厂商大语言模型(LLM)和嵌入模型的广泛支持。本文详细列出了当前兼容的模型列表,帮助用户快速了解平台能力边界与集成选项。
官方支持模型总览
完整的支持模型列表可在官方文档 docs/references/supported_models.mdx 中查看,该列表将持续更新。以下是按功能分类的核心支持情况:
| 厂商 | 对话(Chat) | 嵌入(Embedding) | 重排序(Rerank) | 图像转文本(Img2txt) | 语音转文本(Speech2txt) | 文本转语音(TTS) |
|---|---|---|---|---|---|---|
| Anthropic | ✔️ | |||||
| Azure-OpenAI | ✔️ | ✔️ | ✔️ | ✔️ | ||
| 百度文心一言 | ✔️ | ✔️ | ✔️ | ✔️ | ||
| OpenAI | ✔️ | ✔️ | ✔️ | ✔️ | ✔️ | |
| 阿里通义千问 | ✔️ | ✔️ | ✔️ | ✔️ | ✔️ | ✔️ |
| 智谱AI | ✔️ | ✔️ | ✔️ | |||
| Ollama | ✔️ | ✔️ | ✔️ |
核心功能模块实现
1. 模型抽象层
RAGFlow的模型支持架构通过抽象接口实现多厂商兼容,核心定义位于 rag/llm/init.py。该模块定义了统一的模型调用接口,使得不同厂商的API可以无缝接入。
2. 对话模型实现
对话模型的具体实现位于以下路径:
- rag/llm/chat_model.py:基础对话模型抽象类
- agent/tools/base.py:工具调用与模型集成的桥接层
3. 嵌入模型实现
嵌入模型处理文档向量化,核心代码在:
- rag/llm/embedding_model.py:嵌入模型基类
- conf/llm_factories.json:模型工厂配置文件
扩展兼容方案
对于未在列表中明确列出但API兼容OpenAI的模型,可通过"OpenAI-API-Compatible"选项进行配置。这种灵活性使得RAGFlow能够快速适配新出现的模型服务。
本地部署支持
RAGFlow对本地部署模型提供良好支持,包括:
模型选择建议
根据不同使用场景,推荐以下模型组合:
- 通用场景:OpenAI (gpt-4o + text-embedding-3-large)
- 本地化部署:Ollama (Llama 3 70B + mxbai-embed-large)
- 国内环境:百度文心一言 (ERNIE-Bot 4.0 + Embedding-V3)
- 多模态需求:阿里通义千问 (Qwen-VL + Qwen-Embedding)
完整的模型性能对比和选型指南可参考 docs/guides/models/ 目录下的专题文档。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



