自然语言处理:第六十六章 17 种 prompt engineering 方法大集合

本人项目地址大全:Victor94-king/NLP__ManVictor: 优快云 of ManVictor

原文地址:17 种 prompt engineering 方法大集合


写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!




本文主要介绍prompt engineering的多种方法,具体如下:

  1. Zero-shot prompt
  2. Few-shot prompt
  3. 链式思考(COT)prompt
  4. 自我一致性
  5. 生成知识prompt
  6. prompt chaining
  7. 思维树(TOT)
  8. 检索增强生成(RAG)
  9. 自动推理并使用工具(ART)
  10. 自动prompt工程师
  11. Activet-prompt
  12. 方向性刺激prompt
  13. PAL程序辅助语言模型
  14. ReAct框架
  15. 自我反思 Reflexion
  16. 多模态思维链prompt
  17. 基于图的prompt

下面,将逐一进行介绍。

参考链接:https://www.promptingguide.ai/zh




Part.01 Zero-shot prompt

1.介绍

Zero-shot prompt 是一种无需提供示例或训练数据,直接利用自然语言描述任务或问题,让模型生成相应回答的技术方法。

2.示例

# prompt
将文本分类为中性、负面或正面。
文本:我认为这件事也太好了!
情感:


# output
正面

3.相关论文:

FINETUNED LANGUAGE MODELS ARE ZERO-SHOTLEARNERS (https://arxiv.org/pdf/2109.01652)




Part.02 Few-shot prompt

1.介绍

Few-shot prompt 是一种通过提供少量示例来引导模型生成回答的技术,能在一定程度上提升模型的表现和适应性。

2.示例

# prompt
这太棒了!// Negative
这太糟糕了!// Positive
哇,那部电影太棒了!// Positive
多么可怕的节目!//


# output
Negative

3.相关论文

(1)LLaMA: Open and Efficient Foundation Language Models(https://arxiv.org/pdf/2302.13971)

(2)Language Models are Few-Shot Learners(https://arxiv.org/abs/2005.14165)

(3)Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?(https://arxiv.org/abs/2202.12837)




Part.03 链式思考(COT)prompt

1.介绍

链式思考(COT)prompt 是一种引导模型进行逐步推理和连续思考,以生成更深入、准确答案的提示方法。

2.示例

# prompt
我去市场买了10个苹果。我给了邻居2个苹果和修理工2个苹果。然后我去买了5个苹果并吃了1个。我还剩下多少苹果?
让我们逐步思考。


# output
首先,您从10个苹果开始。
您给了邻居和修理工各2个苹果,所以您还剩下6个苹果。
然后您买了5个苹果,所以现在您有11个苹果。
最后,您吃了1个苹果,所以您还剩下10个苹果。

**3.自动思维链 **Auto-CoT

Auto-CoT对具有多样性的问题进行采样,并生成推理链来构建演示。主要包含两个阶段:

(1)问题聚类: 将给定问题划分为几个聚类

(2)演示抽样: 从每组数组中选择一个具有代表性的问题,并使用带有简单启发式的 Zero-Shot-CoT 生成其推理链。

图片

4.相关论文

(1)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models(https://arxiv.org/abs/2201.11903)

(2)Large Language Models are Zero-Shot Reasoners(https://arxiv.org/abs/2205.11916)

(3)Automatic Chain of Thought Prompting in Large Language Models(https://arxiv.org/abs/2210.03493)




Part.04 自我一致性

1.介绍

自我一致性旨在“替换链式思维提示中使用的天真贪婪解码方法”。其想法是 通过少样本 CoT 采样多个不同的推理路径,并使用生成结果选择最一致的答案 。有助于提高 CoT 提示在涉及算术和常识推理的任务中的性能。

图片

2.示例

# prompt
Q:林中有15棵树。林业工人今天将在林中种树。完成后,将有21棵树。林业工人今天种了多少棵树?
A:我们从15棵树开始。后来我们有21棵树。差异必须是他们种树的数量。因此,他们必须种了21-15 = 6棵树。答案是6。
Q:停车场有3辆汽车,又来了2辆汽车,停车场有多少辆汽车?
A:停车场已经有3辆汽车。又来了2辆。现在有3 + 2 = 5辆汽车。答案是5。
Q:Leah有32块巧克力,她的姐姐有42块。如果他们吃了35块,他们总共还剩多少块?
A:Leah有32块巧克力,Leah的姐姐有42块。这意味着最初有32 + 42 = 74块巧克力。已经吃了35块。因此,他们总共还剩74-35 = 39块巧克力。答案是39。
Q:Jason有20个棒棒糖。他给Denny一些棒棒糖。现在Jason只有12个棒棒糖。Jason给Denny多少棒棒糖?
A:Jason有20个棒棒糖。因为他现在只有12个,所以他必须把剩下的给Denny。他给Denny的棒棒糖数量必须是20-12 = 8个棒棒糖。答案是8。
Q:Shawn有五个玩具。圣诞节,他从他的父母那里得到了两个玩具。他现在有多少个玩具?
A:他有5个玩具。他从妈妈那里得到了2个,所以在那之后他有5 + 2 = 7个玩具。然后他从爸爸那里得到了2个,所以总共他有7 + 2 = 9个玩具。答案是9。
Q:服务器房间里有9台计算机。从周一到周四,每天都会安装5台计算机。现在服务器房间里有多少台计算机?
A:从周一到周四有4天。每天都添加了5台计算机。这意味着总共添加了4 * 5 =
20台计算机。一开始有9台计算机,所以现在有9 + 20 = 29台计算机。答案是29。
Q:Michael有58个高尔夫球。星期二,他丢失了
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

曼城周杰伦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值