“当大模型被要求只能参考企业内网文档答题时,它还能像在通用场景那样侃侃而谈吗?”
—— 这是过去一年里,我们在服务金融、医疗、制造等行业客户时,被问到最多的问题。今天,答案来了:RAFT(Retrieval Aware Fine-Tuning)。
一、为什么通用 RAG 不够用了?
在通用问答场景里,大模型可以调用搜索引擎、百科、GitHub,无所不包。
但在企业落地时,知识边界被严格限定:
- 只能看内部 Wiki
- 只能读代码仓库
- 只能查私有药品说明书
这就从“开放域开卷考试”变成了“限定域开卷考试”。
传统 RAG 的痛点立刻放大:
| 场景 | 通用 RAG | 限定域 RAG |
|---|---|---|
| 检索范围 | 全网 | 千级/万级文档 |
| 检索精度 | 80% 可用 | 95% 才可用 |
| 幻觉风险 | 低 | 极高(一旦检索错,直接胡说) |
| 训练数据 | 公开 QA | 需自建 |
二、RAFT 的三板斧:数据配方、思维链、抗干扰
RAFT 由 UC Berkeley Gorilla 团队提出,目标只有一个:让模型在限定文档集合内,闭卷也能答对,开卷更能答准。
其核心设计可以总结为“三板斧”。

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



