AutoDev Knowledge Agent 的想法是来源于一次与客户的交流中,说到的 RAG 相关的问题:结构化数据优于非结构化数据,JSON 还可以采用 JSONPath 来使用。

既然,我们在 AutoDev 多端版本中已经构建了多个 Agents,那么再构建一个新的 Agent 难度自然也是不大的,这也就是 AutoDev Knowledge 的想法,试验用于复杂场景下的知识问答。
- 安装 AutoDev CLI:
npm install -g @autodev/cli(0.3.2 版本),执行:autodev document -p . -q "How DocumentAgent works?" - 下载 AutoDev Desktop 来体验:https://github.com/unit-mesh/auto-dev/releases (compose-0.3.2 版本)
一、为什么是 Agentic RAG 下的文档查询
Agentic RAG 是一种让 LLM 智能体作为主动参与者(Agentic),以可控、多步骤、可反思的方式 使用检索增强生成(RAG)的新范式。
在 Agent 流行的今天,Agentic RAG 并不是一种新的技术, 我们在 Cursor、Claude Code、Antigravity 等中看到的 Agent 在接受用户的输入之后, 做了一系列 read file、grep、codebase 等操作本身,就是 Agentic RAG。
1.层级化查询:像人类一样查找资料

RAG 通常被分为两个阶段:构建索引 和 执行查询。因此,查询方式往往会反过来决定我们的索引方式 ——是按段落切分、按章节组织,还是按代码结构解析,都取决于我们希望如何“查”。
在早先设计 Knowledge Agent 的时候,我预期的是一种像工程师一样查找文档的体验,而不是传统静态 RAG 那种 “输入一个问题 → 黑箱返回 context” 的单轮检索。
一个工程师在找文档时,从来不会只“搜一次”,而是会不断缩小范围、跨文档跳转、比对上下文、确认细节,并根据结果随时调整查询策略。
而在真实的软件工程环境中,这种“人类式查找”往往天然被分成两种路径:代码查询和文档查询。
代码查询
代码里查找信息时,会自然形成一个多层级路径:
- 找到相关模块或包。例如:user-service、auth、core/domain。
- 再定位到类或接口。例如:UserController、AuthService、TokenProvider。
- 再进入具体方法。例如:createUser()、validateToken()。
- 再分析调用链与依赖。例如:HTTP handler → service → repository → external call。
- 必要时反查测试、配置、注释
文档查询

查文档时同样遵循层级式缩小范围:
- 先确认文档类型或版本。例如 Installation / Architecture / Components / API Reference。
- 再进入相关章节或目录。例如:Authentication、Deployment Guide、Module Design。
- 再定位到小节或标题。例如:JWT Flow、Config Options、Error Handling。
- 再阅读具体段落或示例
- 必要时跳转到 FAQ、设计图、补充文档
所以,当我们的 context 是变成 RAG 化之后,这个问题就变成了:如何把文档构建成一个类似于 codebase 的 RAG 方式。
2.Markdown 文档数据层级化索引

在转换为 Markdown 之后,我们就可以通过一级标题、二级标题、三级标题来反复在文件内跳转了。(事实上,在我觉得直接 readline 更简单
保持语义的丰富性是文档处理中的关键问题。实践中,将文档先转换为 HTML,再生成 Markdown 是一种比较理想的方式;相比直接从 Word 等格式生成 Markdown,这种流程更容易保留层级结构与格式信息,同时减少 LLM 的额外转换负担:
比如 Uber 的 EAg-RAG 将知识源迁移到 Google Docs(HTML 格式)。 HTML 标签天然提供层级结构,再转换为 markdown,使解析精度大幅提升。即便使用 LangChain 的 Markdownify 将 Google 文档转换为 Markdown,我们仍发现表格和嵌套结构处理存在改进空间,需要 LLM 将表格重写为 Markdown,并生成自然语言摘要,以保证语义和上下文完整性。
当然,资源受限的情况下,直接都转换成 markdown 就会比较简单了。而在 Codebase 的场景下,所有的文档都是 markdown 那么就在这问题上的挑战 会比较小。再根据实现的使用情况,我们需要适当地添加一些 metadata,比如 filename,timestamp 等,方便 LLM 做排序。
另外,多模态依旧是现在处理文档的一个痛点,尽管可能还有几年,所以在这里我们就暂时没有处理了 —— 正经的代码文档不都是 mermaid,plantuml 么。
二、AutoDev DocQL 的实现

在 AutoDev Knowledge 的试验中,我们设计了 DocQL (Document Query Language) —— 一种面向文档和代码的领域特定语言(DSL)。 它旨在弥合“非结构化文本”与“结构化查询”之间的鸿沟,为 Agent 提供一种确定性的、可编程的检索接口。
我们主要从以下几个维度构建了 DocQL:
1. AI 友好的查询语法:为什么是 JSONPath?
LLM 在处理 JSON 结构时表现出了惊人的稳定性。因此,我们选择了一种 类 JSONPath (JSONPath-like) 的语法风格。这不仅降低了 Agent 学习工具使用的门槛(Few-shot 即可掌握),更重要的是它天然支持属性访问和过滤条件。
在 DocQL 中,一切皆对象。无论是目录(TOC)、实体(Entities)还是正文(Content),都可以通过 $ 根节点进行访问:
- $.toc: 访问文档的目录树。
- $.entities: 访问提取出的关键实体(如类、方法、API 定义)。
- $.content: 访问具体的文档内容块。
- $.code: 专门用于访问源代码结构(基于 AST)。
这种设计让 Agent 可以像操作数据库一样操作文档:
// 场景 1:Agent 想要了解系统的整体架构,它不需要读取全文,只需查看一级目录
$
.
toc
[?
(@.
level
==
1
)]
// 场景 2:Agent 需要查找所有涉及 "User" 的 API 定义
$
.
entities
[?
(@.
type
==
"API"
&&
@.
name
~
=
"User"
)]
// 场景 3:Agent 想要阅读 "认证" 相关的章节内容
$
.
content
.
heading
(
"Authentication"
)
// 场景 4:Agent 需要查看某个具体类的源码实现
$
.
code
.
class
(
"AuthService"
)
2. 统一的文档对象模型(DOM for RAG)
为了让 DocQL 能够同时查询 Markdown 文档、PDF 甚至源代码文件,我们在底层构建了一个统一的文档对象模型。
-
对于 Markdown/PDF
我们编写了
MarkdownDocumentParser和TikaDocumentParser。它们不仅提取文本,更重要的是提取**结构 **。解析器会将文档转化为一颗包含层级关系的树(Document Tree),每个节点(TOCItem)都准确记录了行号、锚点和父子关系。 -
对于 Codebase
代码本质上是一种高度结构化的文档。通过集成 Tree-Sitter,
CodeDocumentParser将 Java/Kotlin/Python 等代码文件解析为同样的文档树。一个Class被视为一个高层级章节,而Function则是子章节。
这使得 Agent 无需关心底层文件格式。对 Agent 而言,查询《架构设计文档》中的“部署章节”与查询 DeploymentService.java 中的 deploy 方法,使用的是同一套逻辑。
3. Agentic 的核心:智能搜索与多级扩展

虽然 DocQL 提供了精确查询的能力,但用户(或 Agent)的输入往往是模糊的。为了解决这个问题,我们在 DocQLTool 中实现了一套搜索机制。
当 Agent 发起一个模糊查询(如 “Auth”)时,系统并不会简单地做字符串匹配,而是执行一个 Agentic 的检索流:
- 多级关键词扩展 (Multi-Level Keyword Expansion)
-
Level 1 (Primary):生成精确变体(如 “Auth”, “Authentication”)。
-
Level 2 (Secondary):拆解组件词(如将 “AuthService” 拆解为 “Service”)。
-
Level 3 (Tertiary):生成词干和同义词(如 “authorize”, “access”)。
- 系统会根据召回结果的数量,自适应地决定是“继续扩展”还是“收缩过滤”。

- 多通道并行检索: 查询请求会被分发到不同的通道并行执行
-
$.code.classes :查找类名匹配。 -
$.code.functions:查找函数名匹配。 -
$.content.heading:查找文档标题匹配。 -
$.entities:查找术语定义。
- RRF 融合与重排序 (Reranking): 既然是 Agentic RAG,排序逻辑就不能只看词频(BM25)。我们引入了 Composite Scorer,结合了以下权重:
-
Type Priority:代码实体(类/函数)优于普通文本块。
-
Name Match:标题/名称匹配优于内容匹配。
-
RRF (Reciprocal Rank Fusion):融合多路召回的结果。
三、试验结果 && 总结
毫无意外,在第一个版本里,我们在 DeepSeek 上的试验结果并没有那么理想,没有达到预期:

- AI 在找到几个结果之后,并不会继续(应该是提示词的问题,也有可能是 DS 的 agentic 不理想)
- JSONPath 还是容易犯错,并不会出现我们预期中的多级查询的效果(可能我找的几个 case 比较复杂)
于是,我们通过 @DocumentCli.kt,让 AI 不断地优化这个过程。
AutoDev DocQL 的试验表明,在面向研发的 RAG 场景中,Query(查询)比 Search(搜索)更有效。Search 是概率性的,适合寻找“可能相关”的信息。Query 是确定性的,适合在已知结构中“精确定位”信息。
通过 DocQL,我们将文档库和代码库转化为了一个可被 Agent 编程查询的“数据库”。Agent 不再是一个只能被动接收 Context 的阅读者,而变成了一个能够主动探索、按图索骥的研究员。它能够像资深工程师一样,先看目录,再查定义,最后读源码,完成复杂的知识问答任务。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

382

被折叠的 条评论
为什么被折叠?



