别再只会基础Prompt了!17种“神仙”技巧,高手都在偷偷用!

上周周末参加了校友会的年会,是在上海虹桥附近的一家很有特色的大酒店。

期间的茶歇,由于昨晚没睡好,就想着去拿一杯咖啡解解乏。

我一手拿着手机在看一份报告,一手想去服务员托盘上拿一杯奶咖,结果无意碰到了另一只手。

「不好意思」,我连忙跟人道歉。校友笑了笑,倒是关注起了我手机中的报告。我们寒暄了几句,他就问我要了报告仔细翻阅,越看越惊讶,连连追问我是怎么做到的。

他最近正在为写方案发愁,看了我用 AI 生成的这份报告后,直呼「太厉害了」,还赶紧向我讨教使用技巧。

这不禁让老王开始反思,是怎么做到让 AI 更「懂」我的? 好像也只是简单地输入一些关键词,它就能理解意图,输出文字内容,很多时候超出使用者的预期。

这一切的背后,都离不开提示工程。准确地说,是一套规则和方法,通过不同的提示词技巧,来激发AI模型的潜力。

接下来,老王将按自己实操过程中的理解,分重点给大家介绍 17种提示词规则方法,带你一起体验提示工程的魅力。

一、提示词规则

1.零样本提示

可在没有提供任何示例的情况下,直接指示模型完成任务的方法。核心思想是,凭借大模型在海量数据中学习到的通用知识和能力,直接理解任务要求并给出正确的答案。

案例

# prompt
将情绪分类为中性、负面或正面。
文本:我今天太开心了!
情感:

2.少样本提示

利用大型语言模型 (LLM) 的能力,通过在提示词中提供少量示例,来引导模型完成特定任务的方法。与零样本提示不同,少样本提示通过示例来帮助模型理解任务的模式和规则,进而更准确地生成符合要求的输出。

案例

# prompt
“whatpu”是坦桑尼亚的一种小型毛茸茸的动物。
一个使用whatpu这个词的句子的例子是:我们在非洲旅行时看到了这些非常可爱的whatpus。
“farduddle”是指快速跳上跳下。
一个使用farduddle这个词的句子的例子是:

3.链式思考(COT)提示

通过在提示词中引导大型语言模型 (LLM) 逐步进行推理,来解决复杂问题。CoT 提示鼓励模型一步一步地思考,模拟人类的推理过程,从而提高多步推理和逻辑分析类任务的表现。

案例

# prompt
这组数中的奇数加起来是偶数:4、8、9、15、12、2、1。
A:将所有奇数相加(9、15、1)得到25。答案为False。
这组数中的奇数加起来是偶数:15、32、5、13、82、7、1。
A:

更夸张的是,只需要把**「让我们逐步思考」加入进去,就可以起效。这种称之为「零样本** COT 提示」

# 反面案例
# prompt
我去市场买了10个苹果。我给了邻居2个苹果和修理工2个苹果。然后我去买了5个苹果并吃了1个。我还剩下多少苹果?
# output
1个苹果
# 利用COT得到正确答案
# prompt
我去市场买了10个苹果。我给了邻居2个苹果和修理工2个苹果。然后我去买了5个苹果并吃了1个。我还剩下多少苹果?
让我们逐步思考。
# output
首先,您从10个苹果开始。
您给了邻居和修理工各2个苹果,所以您还剩下6个苹果。
然后您买了5个苹果,所以现在您有11个苹果。
最后,您吃了1个苹果,所以您还剩下10个苹果。

现在很多模型已经暗含了 COT 模式,分析非常细。

4.检索增强生成(RAG)

通过结合外部知识库的检索和大型语言模型 (LLM) 的生成能力,来提高LLM在知识密集型任务上的表现。

RAG 先从外部知识库中检索相关信息,然后利用检索到的信息进行生成,从而实现与事实更加一致,生成的答案更可靠,还有助于缓解「幻觉」问题。

案例

使用 LangChain 构建 RAG(检索增强生成)应用:https://python.langchain.com/docs/tutorials/rag/

主要包括以下步骤:

加载文档 (Loading documents): 从各种来源加载数据,例如文本文件,网页等。
分割文本 (Splitting text): 将文档分割成更小的文本块,以便于检索。
创建向量嵌入 (Creating embeddings): 将文本块转换为向量表示,以便于计算相似度。
存储向量 (Storing vectors): 将向量存储到向量数据库中,以便于快速检索。
检索相关文档 (Retrieving relevant documents): 使用用户的查询从向量数据库中检索相关的文本块。
利用LLM生成答案 (Generate answer with LLM): 将检索到的文本块和用户查询组合成提示,并使用 LLM 生成最终答案。

5.自我反思 Reflexion

通过让大型语言模型 (LLM) 对其自身的输出进行反思和迭代,来提高LLM在复杂任务上的表现。反思提示鼓励模型先生成一个初步答案,然后对该答案进行评估和反思,再反思结果进行改进,迭代生成最终的答案。

案例

除了上述 5 个规则,还有 12 个重要的规则如下:

  1. 自我一致性
  2. 生成知识提示
  3. prompt chaining
  4. 思维树(TOT)
  5. 自动推理并使用工具(ART)
  6. 自动提示工程师
  7. 主动提示
  8. 方向性刺激提示
  9. PAL程序辅助语言模型
  10. ReAct框架
  11. 多模态思维链提示
  12. 基于图的提示

上述老王实战中使用频率不高,所以篇幅限制就不在此展示了。有想学习的伙伴可以关注本号,后台回复括号内关键词【17个提示词方法】免费获取2w字

二、总结

AI 目前还是非常考验使用者的。

如果掌握了更多的底层方法论,就能更好的融入日常工作。

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值