经过这几天的动手实践和可视化体验,我们已经对 GraphRAG 的核心功能有了一个基本的了解。今天,我们正式开始深入研究它的源码,首先从熟悉项目结构入手,为我们后续学习其核心工作流(比如索引和查询)打下基础。
项目概览
使用 tree 命令查看 GraphRAG 项目的项目结构如下:
$ tree -L 1 graphrag├── __init__.py├── __main__.py # 模块入口├── api # API 层├── cache├── callbacks├── cli # CLI 入口├── config # 配置管理├── data_model # 数据模型├── index # 索引系统├── language_model # 语言模型├── logger├── prompt_tune # 提示词调优├── prompts # 提示词系统├── query # 查询系统├── storage # 存储抽象层├── utils└── vector_stores # 向量数据库
其中基础模块包括:
- API 层(
api):这里提供了高层次的编程接口,是外部调用 GraphRAG 功能的主要入口,包括索引构建 API(index.py)、查询 API(query.py)和提示词调优 API(prompt_tune.py)三大块; - CLI 入口(
cli):通过 Typer 装饰器定义命令,解析命令行参数并调用 API 层; - 配置管理(
config):使用 Pydantic 定义类型安全的配置模型,包括主配置、LLM 配置、向量配置、存储配置等; - 数据模型(
data_model):定义核心数据结构,包括实体、关系、社区、社区报告、文本单元、文档等;
从入口处可以看出 GraphRAG 有三大功能:索引构建、查询、提示词调优,分别位于下面这些模块中:
-
索引系统(
index):这是 GraphRAG 的核心模块,负责从原始文档构建知识图谱,这里的内容也是最丰富的;比如input目录用于输入处理,支持 CSV、JSON、纯文本多种格式的文档;workflows是 GraphRAG 的工作流引擎,定义了标准的数据处理工作流,使用工厂模式动态创建流水线,支持增量更新和全量重建;operations目录实现了大量的工作流原子操作,包括文本处理、图谱构建、社区识别、总结分析等;下面是一些典型的工作流操作: -
chunk_text- 文本分块,将长文档切分为可处理的片段;embed_text- 文本向量化,支持多种嵌入模型;extract_graph- 从文本提取实体和关系;build_noun_graph- 构建名词图,识别重要概念;create_graph.py- 创建完整的知识图谱;cluster_graph.py- 图聚类,发现社区结构;embed_graph- 图嵌入,支持 Node2Vec 等算法;layout_graph- 图布局,支持 UMAP 降维可视化;summarize_communities- 社区摘要生成;summarize_descriptions- 实体描述摘要;extract_covariates- 协变量提取(如声明检测);
-
查询系统(
query):为 GraphRAG 提供了多种检索策略,包括: -
- 全局搜索:基于社区报告的高层次查询,适合回答概括性或主题性问题;使用 Map-Reduce 模式处理大规模数据;
- 本地搜索:基于实体和关系的细粒度查询,适合回答具体的事实性问题;混合向量检索和图遍历;
- 漂移搜索:基于动态选择社区查询,在查询过程中调整搜索范围,平衡查询深度和广度;
-
提示词系统(
prompts):包括索引和查询所使用的所有提示词; -
提示词调优(
prompt_tune):根据具体数据领域自动生成最适合的提示词,提高知识图谱构建质量;
此外,为实现索引构建和查询,大模型和存储服务也是必不可少的:
- 语言模型抽象(
language_model):提供统一的 LLM 和 Embedding 接口,主要通过 fnllm 库实现; - 存储抽象层(
storage):提供统一的存储接口,支持多种后端,包括本地文件系统、Azure Blob、CosmosDB、内存存储等; - 向量数据库(
vector_stores):支持多种向量数据库,包括:高性能向量数据库 LanceDB、Azure 认知搜索服务 Azure AI Search 以及 Azure 的 NoSQL 数据库 CosmosDB;
技术栈分析
通过分析 pyproject.toml 文件,我们可以对 GraphRAG 的核心依赖和开发工作链有一个初步了解。
-
大语言模型
-
fnllm[azure,openai]- 统一的大语言模型接口库openai- OpenAI 官方提供的 API 客户端tiktoken- 一款高效的 BPE 分词库,能实现文本分词,并计算出文本对应的 token 数量
-
数据科学
-
pandas- 数据处理和分析numpy- 数值计算networkx- 图算法库,用于创建、操作和研究各种图结构,支持图的遍历、最短路径查找等多种图算法实现graspologic- 图统计和机器学习,提供了图数据的统计分析方法和基于图的机器学习模型,助力从图结构数据中挖掘有价值的信息umap-learn- 降维算法库,基于 UMAP 算法,能将高维数据映射到低维空间,同时保留数据的局部和全局结构,便于数据可视化和后续分析
-
向量存储
-
lancedb- 高性能的向量数据库,具备高效的向量存储和检索能力azure-search-documents- Azure 搜索服务的客户端库
-
配置和 CLI
-
pydantic- 数据验证和配置管理,基于类型提示进行数据验证,能确保数据的完整性和正确性,同时便于配置信息的管理和解析typer- 现代化的 CLI 框架,基于 Python 的类型提示构建,让开发者能快速、简洁地创建功能丰富的命令行工具pyyaml- 用于处理 YAML 格式配置文件
-
代码质量
-
ruff- 现代化的 Python 代码检查和格式化工具pyright- 由微软开发的 Python 类型检查器
-
测试框架
-
pytest- 测试框架pytest-asyncio- 提供异步测试支持coverage- 用于代码覆盖率分析
-
文档和发布
-
mkdocs-material- 现代化的文档站点生成工具,基于 MkDocs 构建semversioner- 用于语义化版本管理的工具,帮助开发者规范地管理项目的版本号,记录版本变更信息,简化版本发布流程
命令行入口
GraphRAG 是一个命令行程序,正如我们在入门篇里所体验的,使用 uv run poe init 命令初始化工作空间:
$ uv run poe init --root ./ragtest
其中 poe 是 Poe The Poet 的简称,它是一个任务管理工具,允许在 pyproject.toml 中定义和运行各种任务:
[project]name = "graphrag"
[tool.poe.tasks]...index = "python -m graphrag index"update = "python -m graphrag update"init = "python -m graphrag init"query = "python -m graphrag query"prompt_tune = "python -m graphrag prompt-tune"
可以看出 poe 命令实际上是通过 python -m 执行的:
$ python -m graphrag init
包括 init 在内,GraphRAG 一共支持 5 个不同的子命令:
graphrag init- 初始化项目配置graphrag index- 构建知识图谱索引graphrag query- 执行查询操作graphrag update- 增量更新索引graphrag prompt-tune- 提示词调优
GraphRAG 采用了标准的 Python 包结构,__main__.py 文件是模块的入口:
from graphrag.cli.main import app
app(prog_name="graphrag")
这个文件允许用户通过 python -m graphrag 直接运行包,为开发和测试提供便利。
另外,如果你是通过 pip install 安装的,还可以直接运行 graphrag 命令:
$ graphrag init --root ./ragtest
要实现这一点,其秘密在于 pyproject.toml 文件中的下面这行配置:
[project.scripts]graphrag = "graphrag.cli.main:app"
这里的 [project.scripts] 用于定义脚本入口,当执行 pip install 后,会在 Python 环境的 bin 目录下生成一个可执行文件,我们不妨看下这个文件内容:
# -*- coding: utf-8 -*-import sysfrom graphrag.cli.main import appif __name__ == "__main__": if sys.argv[0].endswith("-script.pyw"): sys.argv[0] = sys.argv[0][:-11] elif sys.argv[0].endswith(".exe"): sys.argv[0] = sys.argv[0][:-4] sys.exit(app())
这个文件根据 [project.scripts] 定义,导入 graphrag.cli.main 包下的 app 方法并执行,因此我们可以直接运行 graphrag 命令。
命令行实现
GraphRAG 命令行是基于 Typer 库开发的,这是一个现代化的 Python CLI 库,基于类型提示构建命令行应用程序。

它的核心特点如下:
- 类型驱动:基于 Python 类型提示自动生成 CLI 接口
- 易用性:简洁的 API,最少的样板代码
- 自动化:自动生成帮助文档、参数验证和错误处理
- 现代化:支持 Python 3.6+ 的现代特性
- 高级功能:子命令组织、回调函数、进度条、颜色输出、确认提示等
通过寥寥几行代码,我们就可以使用 Typer 开发一个命令行程序:
import typer
app = typer.Typer()
@app.command()def hello(name: str): print(f"Hello {name}")
if __name__ == "__main__": app()
再回到 GraphRAG 的代码,当我们执行 python -m 或 graphrag 命令时,实际上调用的是 __main__.py 或 bin/graphrag 文件,它们都是指向 graphrag.cli.main 包下的 app 方法:

从这里可以看到,GraphRAG 基于 Typer 实现了多个选项和子命令的功能:

我们以 graphrag index 为例看下命令的调用链:
1. 入口点:__main__.py 或 bin/graphrag → graphrag.cli.main:app2. CLI 解析:cli/main.py → @app.command("index") 装饰器3. 配置加载:cli/index.py → index_cli() 函数4. API 调用:api.build_index() 函数
小结
至此,我们对 GraphRAG 的项目结构有了大致的了解,并对 graphrag 命令行的运行原理有了一定的认识。接下来,我们将顺着 graphrag index 的调用链,展开聊聊 GraphRAG 索引构建的具体逻辑。
如何学习大模型 AI ?
我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

2025最新大模型学习路线
明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
大模型经典PDF书籍
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

配套大模型项目实战
所有视频教程所涉及的实战项目和项目源码等

博主介绍+AI项目案例集锦
MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。


这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

为什么要学习大模型?
2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

适合人群
- 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
- IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
- IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
- 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。

课程精彩瞬间
大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。
RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。
Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。
顶尖师资,深耕AI大模型前沿技术
实战专家亲授,让你少走弯路

一对一学习规划,职业生涯指导
- 真实商业项目实训
- 大厂绿色直通车
人才库优秀学员参与真实商业项目实训
以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调
大厂绿色直通车,冲击行业高薪岗位
文中涉及到的完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】







1864

被折叠的 条评论
为什么被折叠?



