RAGFlow支持模型:多厂商LLM与嵌入模型的兼容列表

RAGFlow支持模型:多厂商LLM与嵌入模型的兼容列表

【免费下载链接】ragflow RAGFlow是一个基于深度文档理解的开源RAG(检索增强生成)引擎。 【免费下载链接】ragflow 项目地址: https://gitcode.com/GitHub_Trending/ra/ragflow

RAGFlow作为基于深度文档理解的开源RAG(检索增强生成)引擎,提供了对多厂商大语言模型(LLM)和嵌入模型的广泛支持。本文详细列出了当前兼容的模型列表,帮助用户快速了解平台能力边界与集成选项。

官方支持模型总览

完整的支持模型列表可在官方文档 docs/references/supported_models.mdx 中查看,该列表将持续更新。以下是按功能分类的核心支持情况:

厂商对话(Chat)嵌入(Embedding)重排序(Rerank)图像转文本(Img2txt)语音转文本(Speech2txt)文本转语音(TTS)
Anthropic✔️
Azure-OpenAI✔️✔️ ✔️✔️
百度文心一言✔️✔️✔️✔️
OpenAI✔️✔️ ✔️✔️✔️
阿里通义千问✔️✔️✔️✔️✔️✔️
智谱AI✔️✔️ ✔️
Ollama✔️✔️ ✔️

核心功能模块实现

1. 模型抽象层

RAGFlow的模型支持架构通过抽象接口实现多厂商兼容,核心定义位于 rag/llm/init.py。该模块定义了统一的模型调用接口,使得不同厂商的API可以无缝接入。

2. 对话模型实现

对话模型的具体实现位于以下路径:

3. 嵌入模型实现

嵌入模型处理文档向量化,核心代码在:

扩展兼容方案

对于未在列表中明确列出但API兼容OpenAI的模型,可通过"OpenAI-API-Compatible"选项进行配置。这种灵活性使得RAGFlow能够快速适配新出现的模型服务。

本地部署支持

RAGFlow对本地部署模型提供良好支持,包括:

模型选择建议

根据不同使用场景,推荐以下模型组合:

  1. 通用场景:OpenAI (gpt-4o + text-embedding-3-large)
  2. 本地化部署:Ollama (Llama 3 70B + mxbai-embed-large)
  3. 国内环境:百度文心一言 (ERNIE-Bot 4.0 + Embedding-V3)
  4. 多模态需求:阿里通义千问 (Qwen-VL + Qwen-Embedding)

完整的模型性能对比和选型指南可参考 docs/guides/models/ 目录下的专题文档。

【免费下载链接】ragflow RAGFlow是一个基于深度文档理解的开源RAG(检索增强生成)引擎。 【免费下载链接】ragflow 项目地址: https://gitcode.com/GitHub_Trending/ra/ragflow

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值