上一篇博客我学习了使用springAI进行调用大模型,提示词编写,实现不同形式的会话记忆,自定义Advisor的实现和使用,这一章我专门讲在使用springAI过程中的重中之重——RAG的使用,废话不多说,我们马上开始。实战需要引入的依赖和配置以及其他说明和其他文章一样,会放在博客的最上面,需要实战体验的可以按照我提供的表格引入对应的依赖进行尝试。
实战必看(知识点学习选看)
这篇博客不是从零开始的博客,我把他看做我的学习笔记,但既然我写成了博客,就一定要保证我所学习的内容具有正确性和分享性质,所以虽然没有对项目进行展开介绍,但这里我列出需要的依赖和配置文件,看着这篇博客实战是不会有太大的问题的。
1. 本篇博客需要用到的依赖
| Group ID / Artifact ID | 用途 | 官方文档链接 |
|---|---|---|
org.springframework.boot:spring-boot-starter-web | 提供Spring Boot Web开发基础支持(如MVC、Tomcat内嵌服务器) | Spring Boot Web Starter |
org.springframework.boot:spring-boot-starter-test | 提供测试支持(JUnit、Mockito、Spring Test等) | Spring Boot Test Starter |
cn.hutool:hutool-all | Java工具库(包含HTTP、加密、日期处理等工具) | Hutool Docs |
org.projectlombok:lombok | 通过注解简化Java代码(如自动生成Getter/Setter) | Lombok Project |
com.github.xiaoymin:knife4j-openapi3-jakarta-spring-boot-starter | Swagger增强工具(生成API文档) | Knife4j Docs |
com.alibaba:dashscope-sdk-java | 阿里云灵积模型服务SDK(调用通义千问等AI模型) | DashScope SDK |
com.alibaba.cloud.ai:spring-ai-alibaba-starter | Spring AI与阿里云AI服务的集成组件 | Spring AI Alibaba |
org.springframework.ai:spring-ai-markdown-document-reader | Spring AI读取markdown文档 | MarkdownDocumentReader |
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.8.37</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.projectlombok/lombok -->
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>1.18.36</version>
</dependency>
<!-- https://mvnrepository.com/artifact/com.github.xiaoymin/knife4j-openapi3-jakarta-spring-boot-starter -->
<dependency>
<groupId>com.github.xiaoymin</groupId>
<artifactId>knife4j-openapi3-jakarta-spring-boot-starter</artifactId>
<version>4.4.0</version>
</dependency>
<!-- https://mvnrepository.com/artifact/com.alibaba/dashscope-sdk-java -->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>dashscope-sdk-java</artifactId>
<version>2.19.1</version>
</dependency>
<!-- https://mvnrepository.com/artifact/com.alibaba.cloud.ai/spring-ai-alibaba-starter -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-starter</artifactId>
<version>1.0.0-M6.1</version>
</dependency>
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-markdown-document-reader</artifactId>
<version>1.0.0-M6</version>
</dependency>
</dependencies>
2. 本篇博客的所需要的配置文件
application.yml
spring:
application:
name: ${your_project_name}
profiles:
active: local
server:
port: 8123
servlet:
context-path: /api
# springdoc-openapi
springdoc:
swagger-ui:
path: /swagger-ui.html
tags-sorter: alpha
operations-sorter: alpha
api-docs:
path: /v3/api-docs
group-configs:
- group: 'default'
paths-to-match: '/**'
packages-to-scan: com.pigwantofly.myaiagent.controller
# knife4j
knife4j:
enable: true
setting:
language: zh_cn
application-local.yml
spring:
ai:
dashscope:
api-key: ${your_api_key}
chat:
options:
model: qwen-plus
3. 需要开通的AI平台
这里使用的是 阿里云百炼

将自己的API_KEY替换到配置文件中,即可使用
一、RAG概念
1. 什么是RAG?
RAG(Retrieval-Augmented Generation)是一种结合信息检索与文本生成的技术,主要用于增强生成式模型(如大语言模型)的准确性和事实性。它通过从外部知识库动态检索相关信息,再结合生成模型的能力,产生更可靠的输出。
用好理解的话来说,RAG像是给AI配了一个检索知识的笔记本,在AI回答用户的问题之前,先要查一查这个笔记本也就是知识库有没有相关的知识,确保回答是基于真实资料而不是AI自己胡编乱造的。
从技术角度看,RAG 在大语言模型生成回答之前,会先从外部知识库中检索相关信息,然后将这些检索到的内容作为额外上下文提供给模型,引导其生成更准确、更相关的回答。
2. RAG的具体作用?
通过 RAG 技术改造后,AI 就能:
- 准确回答关于特定内容的问题
- 在合适的时机推荐相关课程和服务
- 用特定的语气和用户交流
- 提供更新、更准确的建议
以下是SpringAI中RAG(检索增强生成)与传统AI模型的对比表格:
| 对比维度 | RAG(检索增强生成) | 传统AI模型 |
|---|---|---|
| 工作原理 | 结合检索外部知识库与生成模型,动态获取最新信息 | 依赖预训练模型的静态知识,无实时检索能力 |
| 知识更新 | 通过检索实时更新知识,避免模型重新训练 | 需重新训练或微调模型以更新知识 |
| 计算资源 | 需要额外检索模块,资源消耗较高 | 仅依赖模型推理,资源需求相对较低 |
| 适用场景 | 动态信息场景(如问答、客服),需高准确性 | 静态任务(如文本分类、摘要),无需实时数据 |
| 实现复杂度 | 需集成检索系统与生成模型,架构复杂 | 仅需调用单一模型,实现简单 |
| 响应延迟 | 因检索步骤可能增加延迟 | 延迟较低,适合实时性要求高的场景 |
| 可解释性 | 检索结果提供参考依据,增强输出可信度 | 输出依赖模型内部参数,可解释性较弱 |
| 典型工具 | Spring AI的VectorStore + 生成模型(如GPT) | 单一模型(如GPT、BERT) |
- 数据依赖性:RAG依赖外部数据源的质量和覆盖范围,传统模型依赖训练数据的完备性。
- 灵活性:RAG更适合开放域任务,传统模型在封闭域任务中表现更稳定。
- 维护成本:RAG需维护检索系统,传统模型仅需定期更新训练数据。
3. RAG 工作流程?
RAG 技术实现主要包括以下四个核心步骤:
- 文档收集和切割
- 向量转换和存储
- 文档过滤和增强
- 查询增强和关联
1. 文档收集和切割
文档收集:从各种来源(网页、PDF、数据库等)收集原始文档
文档预处理:清洗、标准化文本格式
文档切割:将长文档分割成适当大小的片段(俗称 chunks)
基于固定大小(如 512 个 token)
基于语义边界(如段落、章节)
基于递归分割策略(如递归字符 n-gram 切割)

2. 向量转换和存储
向量转换:使用 Embedding 模型将文本块转换为高维向量表示,可以捕获到文本的语义特征
向量存储:将生成的向量和对应文本存入向量数据库,支持高效的相似性搜索
3. 文档过滤和检索
查询处理:将用户问题也转换为向量表示
过滤机制:基于元数据、关键词或自定义规则进行过滤
相似度搜索:在向量数据库中查找与问题向量最相似的文档块,常用的相似度搜索算法有余弦相似度、欧氏距离等
上下文组装:将检索到的多个文档块组装成连贯上下文
4. 查询增强和关联
提示词组装:将检索到的相关文档与用户问题组合成增强提示
上下文融合:大模型基于增强提示生成回答
源引用:在回答中添加信息来源引用
后处理:格式化、摘要或其他处理以优化最终输出

4. RAG 相关技术
Embedding 和 Embedding 模型
Embedding 嵌入是将高维离散数据(如文字、图片)转换为低维连续向量的过程。这些向量能在数学空间中表示原始数据的语义特征,使计算机能够理解数据间的相似性。
Embedding 模型是执行这种转换算法的机器学习模型,如 Word2Vec(文本)、ResNet(图像)等。不同的 Embedding 模型产生的向量表示和维度数不同,一般维度越高表达能力更强,可以捕获更丰富的语义信息和更细微的差别,但同样占用更多存储空间。

向量数据库
向量数据库是专门存储和检索向量数据的数据库系统。通过高效索引算法实现快速相似性搜索,支持 K 近邻查询等操作。

注意,并不是只有向量数据库才能存储向量数据,只不过与传统数据库不同,向量数据库优化了高维向量的存储和检索。
召回
召回是信息检索中的第一阶段,目标是从大规模数据集中快速筛选出可能相关的候选项子集。强调速度和广度,而非精确度。
举个例子,我们要从搜索引擎查询 “编程导航-程序员一站式编程学习交流社区” 时,召回阶段会从数十亿网页中快速筛选出数千个含有 “编程”、“导航”、“程序员” 等相关内容的页面,为后续粗略排序和精细排序提供候选集。
精排和 Rank 模型
精排(精确排序)是搜索 / 推荐系统的最后阶段,使用计算复杂度更高的算法,考虑更多特征和业务规则,对少量候选项进行更复杂、精细的排序。
比如,短视频推荐先通过召回获取数万个可能相关视频,再通过粗排缩减至数百条,最后精排阶段会考虑用户最近的互动、视频热度、内容多样性等复杂因素,确定最终展示的 10 个视频及顺序。
Rank 模型(排序模型)负责对召回阶段筛选出的候选集进行精确排序,考虑多种特征评估相关性。
现代 Rank 模型通常基于深度学习,如 BERT、LambdaMART 等,综合考虑查询与候选项的相关性、用户历史行为等因素。举个例子,电商推荐系统会根据商品特征、用户偏好、点击率等给每个候选商品打分并排序。
混合检索策略
混合检索策略结合多种检索方法的优势,提高搜索效果。常见组合包括关键词检索、语义检索、知识图谱等。
比如在 AI 大模型开发平台 Dify 中,就为用户提供了 “基于全文检索的关键词搜索 + 基于向量检索的语义检索” 的混合检索策略,用户还可以自己设置不同检索方式的权重。
二、RAG实战 SpringAI + 本地知识库
现在开始SpringAI简单的实战
1. 文档准备
首先准备用于给 AI 知识库提供知识的文档,推荐 Markdown 格式,尽量结构化。
我们这里使用AI来生成文档,输入对应的提示词,来生成我们需要的文件,这里提供一段提示词:
帮我生成 3 篇 Markdown 文章,主题是【内蒙古】,3 篇文章的问题分别对内蒙古的气候,历史,文化,内容形式为 1 问 1 答,每个问题标题使用 4 级标题,每篇内容需要有至少 5 个问题

2. 文档读取
首先,我们要对自己准备好的知识库文档进行处理,然后保存到向量数据库中。这个过程俗称 ETL(抽取、转换、加载),Spring AI 提供了对 ETL 的支持,参考 官方文档。
ETL 的 3 大核心组件,按照顺序执行:
- DocumentReader:读取文档,得到文档列表
- DocumentTransformer:转换文档,得到处理后的文档列表
- DocumentWriter:将文档列表保存到存储中(可以是向量数据库,也可以是其他存储)

刚开始学习 RAG,我们不需要关注太多 ETL 的细节、也不用对文档进行特殊处理,下面我们就先用 Spring AI 读取准备好的 Markdown 文档,为写入到向量数据库做准备。
1)引入依赖
Spring AI 提供了很多种 DocumentReaders,用于加载不同类型的文件。
我们可以使用 MarkdownDocumentReader 来读取 Markdown 文档。需要先引入依赖,可以在 Maven 中央仓库 找到(官方都没有提)。
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-markdown-document-reader</artifactId>
<version>1.0.0-M6</version>
</dependency>
2)在根目录下新建 rag 包,编写文档加载器类 AppDocumentLoader,负责读取所有 Markdown 文档并转换为 Document 列表。代码如下:
@Slf4j
@Component
public class AppDocumentLoader {
private final ResourcePatternResolver resourcePatternResolver;
public AppDocumentLoader(ResourcePatternResolver resourcePatternResolver) {
this.resourcePatternResolver = resourcePatternResolver;
}
public List<Document> loadMarkdowns() {
List<Document> documents = new ArrayList<>();
try {
Resource[] resources = resourcePatternResolver.getResources("classpath:document/*.md");
for (Resource resource : resources) {
String fileName = resource.getFilename();
MarkdownDocumentReaderConfig config = MarkdownDocumentReaderConfig.builder()
.withHorizontalRuleCreateDocument(true)
.withIncludeCodeBlock(false)
.withIncludeBlockquote(false)
.withAdditionalMetadata("filename", fileName)
.build();
MarkdownDocumentReader reader = new MarkdownDocumentReader(resource, config);
documents.addAll(reader.get());
}
} catch (IOException e) {
log.error("Markdown文档加载失败", e);
}
return documents;
}
}
上述代码中,我们通过 MarkdownDocumentReaderConfig 文档加载配置来指定读取文档的细节,比如是否读取代码块、引用块等。特别需要注意的是,我们还指定了额外的元信息配置,提取文档的文件名(fileName)作为文档的元信息,可以便于后续知识库实现更精确的检索。
3. 向量转换和存储
为了实现方便,我们先使用 Spring AI 内置的、基于内存读写的向量数据库 SimpleVectorStore 来保存文档。
SimpleVectorStore 实现了 VectorStore 接口,而 VectorStore 接口集成了 DocumentWriter,所以具备文档写入能力。如图:
在 rag 包下新建 AppVectorStoreConfig 类,实现初始化向量数据库并且保存文档的方法。代码如下
@Configuration
public class AppVectorStoreConfig {
@Resource
private AppDocumentLoader appDocumentLoader;
@Bean
VectorStore appVectorStore(EmbeddingModel dashscopeEmbeddingModel) {
SimpleVectorStore simpleVectorStore = SimpleVectorStore.builder(dashscopeEmbeddingModel).build();
//加载文档
List<Document> documents = appDocumentLoader.loadMarkdowns();
simpleVectorStore.add( documents);
return simpleVectorStore;
}
}
4. 查询增强
Spring AI 通过 Advisor 特性提供了开箱即用的 RAG 功能。主要是 QuestionAnswerAdvisor 问答拦截器和 RetrievalAugmentationAdvisor 检索增强拦截器,前者更简单易用、后者更灵活强大。
查询增强的原理其实很简单。向量数据库存储着 AI 模型本身不知道的数据,当用户问题发送给 AI 模型时,QuestionAnswerAdvisor 会查询向量数据库,获取与用户问题相关的文档。然后从向量数据库返回的响应会被附加到用户文本中,为 AI 模型提供上下文,帮助其生成回答。
查看 QuestionAnswerAdvisor 源码,可以看到让 AI 基于知识库进行问答的 Prompt:
此处我们就选用更简单易用的 QuestionAnswerAdvisor 问答拦截器,在 LoveApp 中新增和 RAG 知识库进行对话的方法。代码如下:
@Resource
private VectorStore loveAppVectorStore;
public String doChatWithRag(String message, String chatId) {
ChatResponse chatResponse = chatClient
.prompt()
.user(message)
.advisors(spec -> spec.param(CHAT_MEMORY_CONVERSATION_ID_KEY, chatId)
.param(CHAT_MEMORY_RETRIEVE_SIZE_KEY, 10))
// 开启日志,便于观察效果
.advisors(new MyLoggerAdvisor())
// 应用知识库问答
.advisors(new QuestionAnswerAdvisor(loveAppVectorStore))
.call()
.chatResponse();
String content = chatResponse.getResult().getOutput().getText();
log.info("content: {}", content);
return content;
}
5. 测试
编写单元测试代码,故意提问一个文档内有回答的问题:
@Test
void doChatWithRag() {
String chatId = UUID.randomUUID().toString();
String message = "内蒙古的饮食文化有哪些?";
String answer = app.doChatWithRag(message, chatId);
Assertions.assertNotNull(answer);
}
使用Debug模式,可以看到加载的文档被自动按照小标题拆分,并且补充了元信息


查看请求,发现根据用户的问题检索到了 4 个文档切片,每个切片有对应的分数和元信息:


查看响应结果,AI 的回复成功包含了知识库里的内容:

三、RAG 实战:Spring AI + 云知识库服务
RAG 实战:Spring AI + 云知识库服务
在上一小节中,我们文档读取、文档加载、向量数据库是在本地通过编程的方式实现的。其实还有另外一种模式,直接使用别人提供的云知识库服务来简化 RAG 的开发。但缺点是额外的费用、以及数据隐私问题。
很多 AI 大模型应用开发平台都提供了云知识库服务,这里我们还是选择 阿里云百炼,因为 Spring AI Alibaba 可以和它轻松集成,简化 RAG 开发。
1、准备云知识库
首先我们可以利用云知识库完成文档读取、文档处理、文档加载、保存到向量数据库、知识库管理等操作。
1)准备数据。在 应用数据 模块中,上传原始文档数据到平台,由平台来帮忙解析文档中的内容和结构:

2)进入阿里云百炼平台的 知识库,创建一个知识库,选择推荐配置即可:

3)导入数据到知识库中,先选择要导入的数据:

导入数据时,可以设置数据预处理规则,智能切分文档为文档切片(一部分文档):

创建好知识库后,进入知识库查看文档和切片:

如果你觉得智能切分得到的切片不合理,可以手动编辑切片内容
2、RAG 开发
有了知识库后,我们就可以用程序来对接了。开发过程很简单,可以参考 Spring AI Alibaba 的官方文档 来学习。
Spring AI Alibaba 利用了 Spring AI 提供的文档检索特性(DocumentRetriever),自定义了一套文档检索的方法,使得程序会调用阿里灵积大模型 API 来从云知识库中检索文档,而不是从内存中检索。
1.先编写一个配置类,用于初始化基于云知识库的检索增强顾问 Bean:
@Configuration
@Slf4j
class AppRagCloudAdvisorConfig {
@Value("${spring.ai.dashscope.api-key}")
private String dashScopeApiKey;
@Bean
public Advisor appRagCloudAdvisor() {
DashScopeApi dashScopeApi = new DashScopeApi(dashScopeApiKey);
final String KNOWLEDGE_INDEX = "恋爱大师";
DocumentRetriever documentRetriever = new DashScopeDocumentRetriever(dashScopeApi,
DashScopeDocumentRetrieverOptions.builder()
.withIndexName(KNOWLEDGE_INDEX)
.build());
return RetrievalAugmentationAdvisor.builder()
.documentRetriever(documentRetriever)
.build();
}
}
注意上述代码中指定知识库要 使用名称(而不是 id)。
2. 然后在 App 中使用该 Advisor
@Resource
private Advisor appRagCloudAdvisor;
public String doChatWithRag(String message, String chatId) {
ChatResponse chatResponse = chatClient
.prompt()
.user(message)
.advisors(spec -> spec.param(CHAT_MEMORY_CONVERSATION_ID_KEY, chatId)
.param(CHAT_MEMORY_RETRIEVE_SIZE_KEY, 10))
// 开启日志,便于观察效果
.advisors(new MyLoggerAdvisor())
// 应用增强检索服务(云知识库服务)
.advisors(appRagCloudAdvisor)
.call()
.chatResponse();
String content = chatResponse.getResult().getOutput().getText();
log.info("content: {}", content);
return content;
}
3. 测试
测试一下。通过 Debug 查看请求,能发现检索到了多个文档切片,每个切片有对应的元信息:

查看响应结果,成功包含了知识库里的内容:

2611

被折叠的 条评论
为什么被折叠?



