分类的目的是什么?
语言为什么要设置语法、名词、动词等?
不是为了要死记硬背什么是动词,语法规则是什么。
语言从词语和语法开始学起,是因为这些是语言的规律,了解了规律就可以更好的理解语言,然后去使用语言。
分类的目的是让你更容易的有条理的记住那些不熟悉的概念,然后去理解,去使用。
对 prompt (提示工程)的分类,不是为了让你记住有哪些分类,然后去考试,答对了就获得分数,而是为了让你通过归类,理解 prompt 有哪些技巧,怎么样可以把 prompt 用得更好,更广。
在具体介绍分类之前,我们先来看看目前LLMs普遍存在哪些局限性:
-
无法准确引用信息来源。LLMs生成的内容看似可信度很高,但需要注意它们无法访问互联网,引用的外部资料可能是虚构的。
-
存在偏见。LLMs的回答可能带有刻板印象和偏见。
-
会产生幻觉。当被问到不知道答案的问题时,LLMs有时会"产生幻觉",编造错误信息。
-
在数学和常识问题上表现欠佳。尽管能力先进,LLMs在解决最简单的数学或常识问题时经常困难重重。
-
易受到提示注入攻击。恶意用户可通过精心设计的提示,让LLMs无视开发者的指令,生成特定内容。
Prompt Engineering的很多技术都是为了解决LLMs的"幻觉"问题和提升其处理数学与常识任务的能力。当然也有专门用于防范提示注入攻击的技术,这是另外一个话题了。
在使用具体技术之前,我们先来了解一些通用的提示设计原则,它们可以帮你写出清晰、具体的指令:
-
精确说明要执行的任务(如写作、总结、提取信息等)
-
避免说不该做什么,要说该做什么
-
要具体,比如不要说"用几句话",而要说"用2-3句话"
-
用标签或分隔符给提示添加结构
-
需要时,要求输出结构化信息(如JSON、HTML)
-
要求模型验证是否满足条件(如"如果不知道答案,就说’无信息’")
-
要求模型先解释,再给出答案(否则模型可能会试图证明错误答案是对的)
接下来重点来了,将Prompt Engineering技术分为三大类:
-
单提示技术:旨在优化对单个提示的响应
-
组合提示技术:结合使用多个提示,通过多次查询模型来解决任务
-
融合外部工具的技术:将LLMs与外部工具相结合
在单提示技术中,比较常见的有:
-
零样本学习(Zero-Shot):最简单的方法,直接用自然语言指令引导模型
-
少样本学习(Few-Shot):通过几个示例来演示类似的任务及其正确答案,让模型快速理解要求
-
思维链(Chain of Thought):引导模型逐步推理,阐述思考过程,适用于复杂推理
-
程序辅助(Program-Aided):在思维链的基础上,进一步引入代码辅助思考过程
组合提示技术主要有以下几类:
- 投票法:多次询问同一个问题,通过投票选出最佳答案,代表性技术如自洽性prompting,如下图

- 分而治之:将复杂任务分解为多个提示,代表性技术如定向刺激、生成知识、提示链等
定向刺激DSP:利用一个小模型生成提示,这个提示+问题+prompt 得出最新回复
生成知识提示(GK):
提示链
- 自我评估:在prompting框架中引入自我检查环节,代表性技术如反思提示、思维树等
思想树(TOT):针对问题进行多步思考(LLM回复),评估多步思考中的结果,进行结果评估,逐步推理后生成最终回复
最后是与外部工具融合的技术,
- RAG:比较成熟的是RAG(Retrieval-Augmented Generation),它结合了信息检索和文本生成,如下图

- ReAct:它让LLMs生成推理链的同时,还能调用各种工具执行任务,如下图

不管你采用哪种prompting技术,在开发实际应用时,都要像对待一个数据科学过程:准备测试集和评估指标,调优提示并评估对测试集的影响。评估指标的选择要结合具体应用,但一般需要关注以下几个方面:
-
忠实性与相关性:答案是否准确、是否切题
-
检索性能:返回的文档是否相关、是否完备
-
内在思维:是否选择了正确的工具、是否正确提取了参数、是否记住了关键信息、推理过程是否合逻辑
-
非功能性:措辞是否得体、有无偏见、是否合规、有无安全隐患等
总结一下,其实所有prompting技术的宗旨都是相通的,关键在于:
-
表达要清晰准确,不要让模型去猜你的意图
-
用分隔符为提示添加结构
-
用例子和解释来帮助模型理解
-
鼓励模型进行迭代思考,阐明解题过程
-
对于复杂任务,尝试分解为若干子任务
-
尝试多次询问同一个问题
-
考虑引入模型自我检查环节
-
有需要的话,将LLMs与外部工具相结合
-
把prompt优化作为一个迭代、讲究评估的数据科学过程!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】





2643

被折叠的 条评论
为什么被折叠?



