提示词工程

提示词工程

Base LLM

指令调整型LLM

token:服务端会在验证用户身份后生成一个令牌(token),然后将该令牌发送给客户端。客户端在之后的请求中会携带这个令牌,以便服务端验证用户的身份和权限,可以长期有效,也可以是一次性确保安全性

大语言模型的设置

temperature/Top_p:

​ 可以设置更低,促使模型基于事实返回更真实和简洁的结果。

​ 对于诗歌生成或其他创造性任务,可以适当调高

frequency penaltypresence penalty:

​ 模型生成多样化或创造性的文本,可以设置更高

都是高就真实简洁,低就多样化

指令:

指令放在提示的开头,建议使用一些清晰的分隔符,如“###”,来分隔指令和上下文

### 指令 ###
将以下文本翻译成西班牙语:

文本:“hello!”

问答:可以尝试写如果不知道答案可以不回答

文本分类:可以给出判断中性,消极还是积极

代码生成:

/*
询问用户的姓名并说“ Hello”
*/

输出:

let name = prompt("What is your name?");
console.log(`Hello, ${name}!`);

提示技术

  • 零样本提示:不需要例子
  • 少样本提示:增加例子,但有缺陷,特别是在处理更复杂的推理任务时
  • 链式思考(CoT)提示:增加步骤
这组数中的奇数加起来是偶数:4、8、9、15、12、2、1。
A:将所有奇数相加(9、15、1)得到25。答案为False。

这组数中的奇数加起来是偶数:17、10、19、4、8、12、24。
A:将所有奇数相加(17、19)得到36。答案为True。

这组数中的奇数加起来是偶数:16、11、14、4、8、13、24。
A:将所有奇数相加(11、13)得到24。答案为True。

这组数中的奇数加起来是偶数:17、9、10、12、13、4、2。
A:将所有奇数相加(17、9、13)得到39。答案为False。

这组数中的奇数加起来是偶数:15、32、5、13、82、7、1。
A:

零样本 COT 提示:

最近提出的一个新想法是 零样本CoT(opens in a new tab)( Kojima 等人,2022年),它基本上涉及将==“让我们逐步思考”==添加到原始提示中。让我们尝试一个简单的问题,看看模型的表现如何:

提示:

我去市场买了10个苹果。我给了邻居2个苹果和修理工2个苹果。然后我去买了5个苹果并吃了1个。我还剩下多少苹果?

输出:

11个苹果

答案是不正确的!现在让我们尝试使用特殊提示。

提示:

我去市场买了10个苹果。我给了邻居2个苹果和修理工2个苹果。然后我去买了5个苹果并吃了1个。我还剩下多少苹果?让我们逐步思考。

输出:

首先,您从10个苹果开始。您给了邻居和修理工各2个苹果,所以您还剩下6个苹果。然后您买了5个苹果,所以现在您有11个苹果。最后,您吃了1个苹果,所以您还剩下10个苹果。
  • 自我一致性:通过少样本 CoT 采样多个不同的推理路径,并使用生成结果选择最一致的答案
当我6岁时,我的妹妹是我的一半年龄。现在我70岁了,我的妹妹多大?

输出:35

Q:林中有15棵树。林业工人今天将在林中种树。完成后,将有21棵树。林业工人今天种了多少棵树?
A:我们从15棵树开始。后来我们有21棵树。差异必须是他们种树的数量。因此,他们必须种了21-15 = 6棵树。答案是6。
Q:停车场有3辆汽车,又来了2辆汽车,停车场有多少辆汽车?
A:停车场已经有3辆汽车。又来了2辆。现在有3 + 2 = 5辆汽车。答案是5。
Q:Leah有32块巧克力,她的姐姐有42块。如果他们吃了35块,他们总共还剩多少块?
A:Leah有32块巧克力,Leah的姐姐有42块。这意味着最初有32 + 42 = 74块巧克力。已经吃了35块。因此,他们总共还剩74-35 = 39块巧克力。答案是39。
Q:当我6岁时,我的妹妹是我的一半年龄。现在我70岁了,我的妹妹多大?

输出:67

  • 生成知识提示:其中一种流行的技术是能够融合知识或信息,以帮助模型做出更准确的预测

​ 模型也可以在做出预测之前用于生成知识

添加后:

输入:希腊比墨西哥大。
知识:希腊的面积约为131,957平方公里,而墨西哥的面积约为1,964,375平方公里,使墨西哥比希腊大了1,389%。

输入:眼镜总是会起雾。
知识:当你的汗水、呼吸和周围的湿度中的水蒸气落在冷的表面上,冷却并变成微小的液滴时,会在眼镜镜片上产生冷凝。你看到的是一层薄膜。你的镜片相对于你的呼吸会比较凉,尤其是当外面的空气很冷时。

输入:鱼有思考能力。
知识:鱼比它们看起来更聪明。在许多领域,如记忆力,它们的认知能力与或超过非人类灵长类动物等“更高级”的脊椎动物。鱼的长期记忆帮助它们跟踪复杂的社交关系。

输入:一个人一生中吸烟很多香烟的常见影响是患肺癌的几率高于正常水平。
知识:那些一生中平均每天吸烟不到一支香烟的人,患肺癌的风险是从不吸烟者的9倍。在每天吸烟1到10支香烟之间的人群中,死于肺癌的风险几乎是从不吸烟者的12倍。

输入:一块石头和一颗卵石大小相同。
知识:卵石是一种根据Udden-Wentworth沉积学尺度的颗粒大小为4到64毫米的岩屑。卵石通常被认为比颗粒(直径2到4毫米)大,比卵石(直径64到256毫米)小。

输入:高尔夫球的一部分是试图获得比其他人更高的得分。
知识:
高尔夫球的目标是以最少的杆数打完一组洞。一轮高尔夫球比赛通常包括18个洞。每个洞在标准高尔夫球场上一轮只打一次。每个杆计为一分,总杆数用于确定比赛的获胜者。
  • 思维树
  • **检索增强生成:**RAG模型将信息检索和文本生成相结合

例如:假设我们要构建一个问答系统,帮助用户回答关于历史事件的问题。我们可以使用RAG模型来实现这个问答系统。

  1. 检索器(Retriever):
    • 建立一个包含大量历史文本的知识库
    • 使用检索技术,比如倒排索引或向量检索,以及预训练的语言表示模型(如BERT),来找到与用户问题相关的历史文本段落或文章。
  2. 生成器(Generator):
    • 我们可以使用预训练的生成模型,比如GPT模型,作为生成器。
    • 生成器接收从检索器中检索到的历史文本作为输入,并生成与用户问题相关的回答。

示例: 用户提出问题:“法国大革命的起因是什么?”

RAG模型的工作流程如下:

  1. 查询处理

  2. 信息检索:检索器查找

    法国大革命是由于多种因素导致的,包括政治、社会和经济因素。其中,贫困和不公平的税收政策、对贵族特权的不满、启蒙思想的传播等都为法国大革命的爆发提供了土壤。
    
  3. 文本生成:生成器使用检索的文本并基于它生成回答:

    法国大革命的起因有多方面,包括贫困和不公平的税收政策、对贵族特权的不满、以及启蒙思想的传播。这些因素共同促成了法国大革命的爆发。
    
  • 自动推理并使用工具 (ART):利用计算机程序进行逻辑推理和自动推断的过程,通常用于解决逻辑问题、证明定理、验证系统的正确性等。这些计算机程序可以是基于规则的系统、定理证明器、模型检验器等
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值