一、背景与目的:知识库建设不能再「凭感觉」了
过去半年我们花了很多工夫来建设企业内部研发知识库,除了智能体的搭建,在知识输入上,我们梳理导入了包含研发架构管理制度与规范、各类内部平台操作与引导的知识内容,但始终不好回答一个关键问题:
内部知识库到底建设得好不好?有没有真正帮助到研发?
以前的评判方法非常粗糙:
-
看访问量?有人点了不代表有用
-
看采纳率?人工抽样能覆盖的问题太有限,而且采不采纳完全看抽样人主观判断
-
问一线同事?夸你两句你还当真了
最终只能靠「感觉」来判断效果,而这在一个科技团队内显然不那么「工程」与「科学」。
所以我们希望知识库的评估能够:
-
可量化(给出明确的分数)
-
可复现(能重复执行)
-
可对比(知道新知识有没有提升效果)
因此,我们构建了一套知识库评估框架,系统地评测量化我们的知识库与智能体回答能力。
二、指标体系:用三项核心算法量化知识库效果
要评价一个RAG知识库,业内已经有了比较成熟的评估框架,在探索中我们先选了三个核心指标:
1. Recall Score(检索召回率)
Recall Score 指标主要用来衡量系统是否检索到了正确的知识。构建知识库的第一步是检索,检索不准,后续生成就无从谈起。我们采用了余弦相似度(cosine similarity)来作衡量:
余弦相似性通过测量两个向量的夹角的余弦值来度量它们之间的相似性。两个向量有相同的指向时,余弦相似度的值为1;两个向量夹角为90°时,余弦相似度的值为0;两个向量指向完全相反的方向时,余弦相似度的值为-1。
其中emb代表文字经过向量模型后的向量值,retrieved是检索到的文档内容,ground_truth是我们写的基准答案,如果知识库能够正确检索出与真实答案语义一致的内容,RecallScore 就会更高。
2. Correctness(答案正确度)
Correctness 指标用来衡量模型回答是否正确。即便检索正常,模型仍可能出现表达偏差或理解不准。我们使用同样的余弦相似度,将模型回答与标准答案比较:
上一个RecallScore指标是用来衡量找得对不对,而Correctness是用来衡量如Qwen3、Deepseek等大模型是否正确利用了检索出来的材料做出回答。直观区别就是Correctness中的answer是经过了大模型后的输出答案。
有四个场景可以进一步加深理解:
-
场景 A:
RecallScore低,Correctness高
反映的是检索错了,但模型乱答出了正确内容(就是蒙对)。要么是问题非常简单,要么是模型本身能力很强,这种情况说明知识库白建了,而且还会让我们误以为自己做得很好。
-
场景 B:
RecallScore高,Correctness低
检索对了,但模型回答错了。这说明知识库建设没问题,问题出在模型生成阶段,可以考虑换模型。
-
场景 C:
RecallScore高,Correctness高
这就是我们想要的场景,知识库建设得好,模型回答得也好。
-
场景 D:
RecallScore低,Correctness高
这说明知识库检索链路错误 ,导致模型没有拿到正确文档 ,并且模型也没办法推理出正确答案。好好回炉重建吧。
3. Groundedness(基于知识库程度)
Groundedness 指标用来衡量模型回答是否引用了知识库,而不是瞎编。简而言之就是用来衡量是否有「幻觉」,大模型是否自己加戏了。我们将模型回答与检索文档进行相似度匹配:
高Groundedness说明回答基于知识库,可信度高;低Groundedness说明有幻觉风险,需要调整。
仔细看就会发现,这三个指标就是对retrieved、answer、ground_truth这三个向量值C32求余弦,总结如下:
| 指标 | 衡量什么 | 反映什么 |
|---|---|---|
| RecallScore | 检索是否找到正确知识 | RAG是否准确 |
| Correctness | 回答是否正确 | 大模型对问题理解与表达是否准确 |
| Groundedness | 回答是否基于知识 | 大模型是否有幻觉 |
三、系统建设:一套轻量可扩展的评估Pipeline
整个评测系统采用Python编写,在内网运行。总体架构沿用了知识系统自身的基础能力,因此非常轻量、易维护。(一句话就是,接口现成的,代码AI写的,vibe coding我谢谢你)
有四个核心模块:
1. retriever.py:向量检索
在向量模型上,用与内部知识库一致的bge-m3向量模型,确保评估一致性。
2. generator.py:调用 Dify 知识库问答接口
实际就是用Dify走一遍和真实用户一致的流程,都是标准接口。
3. evaluator.py:基于向量的三项指标计算
每个问题都会输出三项评分,算三个余弦值,代码就不贴了。
4. main.py:跑一遍完整测试集
也不赘述了。有需要可以去搂一眼:https://github.com/dumbray/rag_eval
四、评估结果与优化方向
我们先梳理了20道内部研发平台的高频问题,作为第一版benchmark,实际跑下来的平均分:
-
Recall Score:0.54
-
Correctness:0.75
-
Groundedness:0.59
整体表现只能说还行吧,提升空间还是很大的,而且这个分数跟人工抽样采纳率和用户的实际体验感受也差不多。
-
检索准确率(0.54)说明检索还需要增强
-
回答正确率(0.75)说明模型生成能力相对稳定,回答质量是可以了
-
Groundedness (0.59)说明还是有少量幻觉存在的
未来我们计划从以下几方面持续演进:
1. 扩充基准问题集
当前20道题还属于「小样本」,未来会持续扩展:
-
问题数量起码要到100+
-
问题覆盖范围要扩展至平台、工具链、流程规范等全范围
-
从实际日志、问答群中收集真实问题
还有就是现有问题是人工写的,后续也可以让大模型自动从知识库中抽取问题扩充问题集
2. 扩展评估指标
目前是纯向量相似度,但未来可以考虑:
-
引入 LLM-based 的一致性判断(如 GPT-Score)
-
引入 NLI(自然语言推理)判断回答是否“逻辑正确”
-
使用更适合评估的 Ranking 模型
(这些都是大模型跟我说的,有没有可行性之后再说吧)
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
如果你也想通过学大模型技术去帮助自己升职和加薪,可以扫描下方链接👇👇

为什么我要说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。

智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。


资料包有什么?
①从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线

③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!


如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

RAG知识库评估三大核心指标
949

被折叠的 条评论
为什么被折叠?



