RAG 或微调,应该如何选型

在企业级AI应用开发中,我们经常面临一个核心问题:如何让通用大语言模型具备特定领域的专业能力?目前主流的两种技术路线是检索增强生成(RAG)和模型微调(Fine-Tuning)。虽然网上已有不少相关介绍,但本文将从基本原理出发,结合企业实际需求,提出一个清晰的选型框架,并探讨可能的混合方案。

前排提示,文末有大模型AGI-优快云独家资料包哦!

模型的工作原理

要做出明智的选择,首先需要理解大语言模型的基本工作原理。所有语言模型本质上都是在预测下一个词的概率分布。这种预测具有随机性,而我们可以通过提供明确的上下文(Context)来提高预测的准确性。

举个例子,"Transformer"这个词在AI领域指的是一种模型架构,而在电影爱好者眼中则是"变形金刚"。明确的上下文能帮助模型理解问题的具体领域。

模型的知识广度同样重要。就像长者的阅历比年轻人更丰富,参数量更大的模型通常表现更好。模型会将问题分解为词或字,通过训练中学到的概率关系来生成回答。但如果某些专业术语从未在训练数据中出现过,模型就很难给出准确答案。

这正是我们需要领域专家模型的原因。大多数专家模型都是通过对基础模型进行微调得到的,让模型掌握特定领域内词汇的概率分布。

技术原理深度解析

有了上面的概念,我们也就知道,要想给特定领域的企业或团队,提供定制化的 AI 模型方案,需具备两个条件:知识的深度与清晰的上下文。要想满足这些条件,我们可以通过对模型进行微调,也就是二次训练。或者通过 RAG (增强检索)挂载专业的知识库,或者调整提示词进行。在讲它们的区别之前,我们来看一下它们各在的原理。

微调:重塑模型思维

微调,顾名思议,微就是小范围的调整,调整什么呢?就是模型的参数,我们知道一个模型有几十上百亿的参数,我们不用调整所有的参数,只是对于调整目标领域的子词单元(Token),强化目标领域 Token 之间的关系,也就是不同的概率分布,通过给模型专业的数据样本(问题与答案),让模型学习它们之间的关系,以达到参数的修改。使模型能够学习到。

  • 领域术语的特殊含义(如医疗术语"心肌梗塞")
  • 专业概念之间的关系(如"血压"与"降压药"的关联)
  • 符合行业规范的表达方式

RAG:外部知识增强

RAG 相当于为模型配备了一个专业资料库,确保回答基于最新、最准确的企业知识。

它的流程就是将本领域的文档,向量化后存储在向量数据库中。当问题来的时候,也做同样的向量处理,然后对刚刚存在数据库中的文档,进行一轮向量匹配,把最有可能的答案范围先圈出来。然后再发给模型,模型在依把这个圈定的范围,来查找最优的那个解。

提示词工程:轻量级引导

我们在和模型交互时,也会用到提示词,比如告诉模型,你应该扮演什么角色,如何如何回答问题,强调关键信息。这其实也是在给它描述上下文,也是在提高这个范围的权重。 提示词是最轻量级的模型引导方式。

我们可以把微调与 RAG 总结为道与术的区别,微调很多的时候是让模型学会处理问题的方法,而 RAG 更多的时候是对已知结果的一种记忆。

需求分析与方案选择

我们知道了它们的原理后,我们就知道对于需求如何进行分析。针对不同场景选择不同的方案。这里分两大场景,一个是有标准答案,一个是没有明确答案。 有标准答案的如政策法规,专业术语解释,法律咨询等,比如申请补贴需要哪些条件条件等。 还有一种是没有明确的答案,如故障检测,病例分析,市场预测等,比如某某出现了什么新的症状,是什么原因造成的?

选型建议

我们先假定在不考虑成本的情况下,针对不同的场景,有哪些方案可供选择。

对于有标准答案的,我们通常采用RAG 方案,直接给圈定范围,避免模型出现幻觉,回答无关内容。对于没有标准答案的,我们可以采用微调方案,让模型学会如何分析与解决特定领域问题的能力,以应对新的问题出现。

但任何方案都不是完美的,对于 RAG ,因为需要先进行一轮检索,这个查询也会增加回答响应的时间,对于延迟有要求的场景来说,这点需要注意。另外,因为所有的领域的知识取决于知识库所涉及的范围,如果知识库的储备不足,也难以应对所有问题。但如果数据过多还得考虑召回(返回的数据量)的准确性。这些都是需要经验不断优化的。

而对于模型微调来说,因为训练一次的时间成本高,无法做到每次有新的知识出现时,都进行一次训练。对于数据时时性有要求的场景来说,不会是一个好的选择。就如同我们在问大模型时得到的回答,发现已经是过时一样。另外,对于训练数据的准备也是有一定要求,数据样本基本上决定了最后生成的效果。而训练的参数也是需要根据不同的环境,不断的尝试才能得到相对理想的结果。这些都是需要考虑的因素。

这里还有第三种方案,就是两者相结合,既有专家模型,又有时时的专业知识库配合,效果会好很多,就如同我们用 Deepseek 时,开启联网搜索一样。

实施路径

当然以上都是建立在不考虑成本的情况下。 如果考虑成本因素,无论是时间还是资金。可以考虑这样的实施路径,提示词 → RAG → 微调 → RAG + 微调。 

在初期,我们可以先使用已有的大模型基于提示词限定的做法,首先选择的大模型已经是成熟的模型,比如 Deepseek R1 或 OpenAI o4 等,也许在已有的垂直领域的知识已足以应对初期的问题,只是在回答的风格或特定的术语上,稍做引导就能有很好的表现。这个可能是我们最先需要去尝试的。

如果提示词调整不能满足的情况下,再开始再尝试 RAG,相对模型训练它的时间与投入成本是相对最少的,也有很多成熟的框架使用。

在取得一定的效果后,并且也有一定的预算下,我们再开始进行微调,注意,微调需要大量的整理好的标注数据(现在也有小样本强化微调方式推出)。而对于训练框架市面上有很多成熟方案,训练的环境与硬件成本也在逐步下降,唯一要关注的就是训练的数据集与训练参数。

后期,也就是 RAG + 微调的混合方案,就如同给专家模型外挂知识库。唯一要注意的是,设计好优先级,先检索知识库,若置信度>阈值则直接使用RAG结果,否则调用微调模型生成答案。

总结来说

  1. 初期:尝试提示词工程
    • 选择成熟的基础模型
    • 设计专业提示词
    • 快速验证可行性
  2. 中期:引入RAG
    • 构建企业知识库
    • 选择适合的向量数据库
    • 优化检索策略
  3. 后期:实施微调
    • 收集和标注专业数据
    • 选择合适的微调方法(如LoRA)
    • 评估模型性能
  4. 高级阶段:混合方案
    • 设计智能路由机制
    • 优化知识更新流程
    • 持续监控和改进

 

 读者福利:倘若大家对大模型感兴趣,那么这套大模型学习资料一定对你有用

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

请添加图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值