RAFT:让大模型在“开卷考试”中精准答题的秘诀


“当大模型被要求只能参考企业内网文档答题时,它还能像在通用场景那样侃侃而谈吗?”
—— 这是过去一年里,我们在服务金融、医疗、制造等行业客户时,被问到最多的问题。今天,答案来了:RAFT(Retrieval Aware Fine-Tuning)。


一、为什么通用 RAG 不够用了?

在通用问答场景里,大模型可以调用搜索引擎、百科、GitHub,无所不包。
但在企业落地时,知识边界被严格限定:

  • 只能看内部 Wiki
  • 只能读代码仓库
  • 只能查私有药品说明书

这就从“开放域开卷考试”变成了“限定域开卷考试”。
传统 RAG 的痛点立刻放大:

场景 通用 RAG 限定域 RAG
检索范围 全网 千级/万级文档
检索精度 80% 可用 95% 才可用
幻觉风险 极高(一旦检索错,直接胡说)
训练数据 公开 QA 需自建

二、RAFT 的三板斧:数据配方、思维链、抗干扰

RAFT 由 UC Berkeley Gorilla 团队提出,目标只有一个:让模型在限定文档集合内,闭卷也能答对,开卷更能答准
其核心设计可以总结为“三板斧”。

<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值