给大家普及了大模型的基础,但是缺乏应用的大模型是没有价值的。当然你可能使用过 Kimi Chat、豆包这样的大模型工具,它们可能已经在生活中充当了我们的创作助手、咨询专家、甚至情感陪护等,但这样的应用还远远不能发挥出大模型的真正价值,我们期望大模型在更专业的生产领域发挥作用,提升生产力,引领真正的科技变革。
当前大模型被普遍看好的两个专业应用方向是 RAG(Retrieval-Augmented Agenerated,检索增强生成)与 Agent(AI 智能体)。本篇首先尝试用通俗易懂的语言帮助大家认识 RAG 这一重要应用形式。
01 了解大模型的 “幻觉”
在了解为什么出现 RAG 之前,我们首先需要了解大模型著名的 “幻觉” 问题。
“幻觉” 指的是大模型在试图生成内容或回答问题时,输出的结果不完全正确甚至错误,即通常所说的 “一本正经地胡说八道”。这种 “幻觉” 可以体现为对事实的错误陈述与编造、错误的复杂推理或者在复杂语境下处理能力不足等。其主要原因来自于:
(1)训练知识存在偏差:老师教错了,学生自然对不了。
在训练大模型时输入的海量知识可能包含错误、过时,甚至带有偏见的信息。这些信息在被大模型学习后,就可能在未来的输出中被重现。
(2)过度泛化地推理:自作聪明,以偏概全了。
大模型尝试通过大量的语料来学习人类语言的普遍规律与模式,这可能导致 “过度泛化” 的现象,即把普通的模式推理用到某些特定场景,就会产生不准确的输出。
(3)理解存在局限性:死记硬背,加上问题太难了。
大模型并没有真正 “理解” 训练知识的深层含义,也不具备人类普遍的常识与经验,因此可能会在一些需要深入理解与复杂推理的任务中出错。
(4)缺乏特定领域的知识:没学过,瞎编个答案蒙一下。
通用大模型就像一个掌握了大量人类通用知识且具备超强记忆与推理能力的优秀学生,但可能不是某个垂直领域的专家(比如医学或者法律专家)。当面临一些复杂度较高的领域性问题或私有知识相关的问题时(比如介绍企业的某个新产品),它就可能会编造信息并将其输出。
当然,除了 “幻觉” 问题,大模型还存在知识落后、输出难以解释、输出不确定等一些问题。这也决定了大模型在大规模商业生产应用中会面临着挑战:很多时候我们不仅需要理解力和创造力,还需要极高的准确性(不仅要会写作文,还要会准确解答数学题)。
02 RAG 如何优化 “幻觉” 问题
RAG,正是为了尽可能地解决大模型在实际应用中面临的一些问题,特别是 “幻觉” 问题而诞生的,也是最重要的一种优化方案。其基本思想可以简单表述如下:
将传统的生成式大模型与实时信息检索技术相结合,为大模型补充来自外部的相关数据与上下文,以帮助大模型生成更丰富、更准确、更可靠的内容。这允许大模型在生成内容时可以依赖实时与个性化的数据和知识,而不只是依赖训练知识。简单的说:RAG 给大模型增加了一个可以快速查找的知识外挂。
用一个例子帮助理解 RAG 的概念:
如果把大模型比喻成一个经过大量知识与技能训练的优秀学生,把大模型响应的过程比喻成考试,那么这个优秀学生在考试时仍然可能会遇到没有掌握的知识,从而编造答案(幻觉)。
RAG 就是在这个学生考试时临时给他的一本参考书。我们可以要求他在考试时尽量参考这本书作答,那么在遇到与这本书中的知识相关的问题时,他的得分是不是就高多了呢?
03 模拟简单的 RAG 场景
假如你需要开发一个在线的自助产品咨询工具,允许客户使用自然语言进行交互式的产品问答,比如 “请介绍一下您公司这款产品与 ×× 产品的不同之处”。为了让客户有更好的体验,你决定使用大模型来构造这样的咨询功能并将其嵌入公司的官方网站。如果你直接使用通用大模型,那么结果很可能如图 1-10 所示。
不出意外,大模型显然不具备贵公司的最新手机产品知识,因此无法回答客户的问题(有时候可能会尝试编造答案)。现在,如果你使用 RAG 的思想,那么可以先从企业私有的知识库中检索出下面一段相关的补充知识。
你把检索出的补充知识组装到提示词中,将其输入大模型,并要求大模型基于提供的知识来回答你的问题。大模型很聪明地 “吸收” 了补充的外部知识,并结合自己已经掌握的知识,成功推理并给出了答案:
是的,RAG 本质上就是一种借助 “外挂” 的提示工程,但绝不仅限于此。因为在这里简化了很多细节,只是为了展示 RAG 最核心的思想:给大模型补充外部知识以提高输出答案的质量。
04 RAG 与模型微调
要想提高大模型在特定行业与场景中输出的适应性与准确性,除了使用 RAG,还可以使用自己的数据对大模型进行微调。简单地说,微调就是对基础模型在少量(相对于预训练的数据量来说)的、已标注的数据上进行再次训练与强化学习,以使得模型更好地适应特定的场景与下游任务。显然,微调是另外一种给大模型 “灌输” 新知识的方法。两者的主要差异在于:
-
RAG 无需额外的训练,随时可以提供补充的知识,调试简单。缺点是受到上下文空间的限制,且回答时性能略差(毕竟要现学现用)
-
微调需要专门的数据准备和训练时间,技术要求相对较高,效果较难预测,不太适合更新频繁的知识。好处是应用层面会更简单
以前面的例子来说明微调和 RAG 的区别:
如果大模型是一个优秀学生,正在参加一门考试,但是这门考试中有很多知识是这位学生没有学习过的,现在使用 RAG 和微调两种方法对这位学生提供帮助。
-
RAG:在考试时给他提供某个领域的参考书,要求他现学现用,自己翻书理解后给出答案。
-
模型微调:在考试前一天对他进行突击辅导,使他掌握了新的领域知识,然后让他参加考试。
无法确切地说在什么场景中必须使用 RAG、在什么场景中必须使用微调。结合当前的一些研究及普遍的测试结果,可以认为在以下场景中更适合考虑微调的方案(在不考虑成本的前提下):
(1)需要注入较大数据量且相对稳定、迭代周期较长的领域知识;需要形成一个相对通用的领域大模型用于对外服务或者运营。
(2)执行需要极高准确率的部分关键任务,且其他手段无法满足要求,此时需要通过高效微调甚至全量微调来提高对这些任务的输出精度,比如医疗诊断。
(3)在采用提示工程、RAG 等技术后,无法达到需要的指令理解准确、输出稳定或其他业务目标。
在除此之外的很多场景中,可以优先考虑使用 RAG 来增强大模型生成。当然,在实际条件允许的前提下,两者的融合应用或许是未来更佳的选择。
05 初步认识 RAG 架构
最后,我们从技术层来看一个最基础、最常见的 RAG 应用的逻辑架构与流程。
注意:在这张图中仅展示了一个最小粒度的 RAG 应用的基础原理。通常情况下,可以把一个简单的 RAG 应用从整体上分为数据索引(Indexing)与数据查询(Query)两个大的阶段,而在每个阶段都包含不同的处理环节。以上面的举例来解释:
-
索引阶段就是编写考试时需要的参考书,这本书要容易快速查找特定知识。
-
查询阶段就是考试时使用这本书的过程,先查找参考资料,然后解答问题。
在实际 RAG 应用中,对于不同的应用场景、客观条件、工程要求,会有更多的模块、架构与流程的优化设计,以应对众多的技术细节与挑战。比如,自然语言表达的输入问题可能千变万化,你从哪里检索对应的外部知识?你需要用怎样的索引来查询外部知识?你怎样确保补充的外部知识是回答这个问题最需要的呢?就像上面例子中的学生,如果考试的知识点是英语语法,你却给他一本《微积分》,那显然是于事无补的。
诸如这一类的问题都属于更深入的高级 RAG 模块与优化的范畴,感兴趣的同学可以自行学习,这里推荐一本非常全面的 RAG 应用的学习书籍:
一本全面介绍基于大语言模型的 RAG 应用开发的专业图书。本书共分为 3 篇:预备篇、基础篇和高级篇。预备篇旨在帮助你建立起对大模型与 RAG 的基本认识,并引导你搭建起 RAG 应用开发的基础环境;基础篇聚焦于经典 RAG 应用开发的核心要素与阶段,介绍关键模块的开发过程,剖析相关的技术原理,为后面的深入学习打下坚实的基础;高级篇聚焦于 RAG 应用开发的高阶模块与技巧,特别是在企业级 RAG 应用开发中的优化策略与技术实现,并探索了一些新型的 RAG 工作流与范式,旨在帮助你了解最新的 RAG 应用技术发展,掌握 RAG 应用的全方位开发能力。
如何系统的去学习大模型LLM ?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
事实上,抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为
等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?
与其焦虑……
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!
在这个版本当中:
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、LLM大模型经典书籍
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套LLM大模型报告合集
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、LLM大模型系列视频教程
四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)
五、AI产品经理大模型教程
LLM大模型学习路线 ↓
阶段1:AI大模型时代的基础理解
-
目标:了解AI大模型的基本概念、发展历程和核心原理。
-
内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践
- L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
-
目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
-
内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例
- L2.2 Prompt框架
- L2.3 流水线工程
- L2.4 总结与展望
阶段3:AI大模型应用架构实践
-
目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
-
内容:
- L3.1 Agent模型框架
- L3.2 MetaGPT
- L3.3 ChatGLM
- L3.4 LLAMA
- L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
-
目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
-
内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
这份 LLM大模型资料
包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓