大模型参数
在介绍Prompt之前,我们先来了解大模型的两个参数:Temperature和Top_p
Temperature
模型输出的随机性参数。temperature 的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果。对于需要创造性回答的场合,更高的temperature有助于提高回答的创造性和多样性,而对于需要精准性的回答的场景,需要降低该参数以期获得精准的回答
Top_p
同用来控制模型返回结果的真实性的参数。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。
Prompt工程
Prompt简介
大模型输出场景下,用于引导模型生成特定的输出。对比传统编程,使用代码来构建方法,使用编译器来解释,而对于AI场景来说,则是使用Prompt来构建方法,使用大模型来解释和执行代码。
一个优秀的prompt,通常包含几个部分
- 指令:模型需要执行的任务或指令
- 上下文:外部的知识库信息,历史对话等,帮助模型更好的输出结果
- 输入:用户本次输入的内容和问题
- 输出样式:需要模型提供的输出格式
另外,为了让模型更合理的输出结果,我们通常在Prompt中加入角色,让大模型以指定角色回答问题,以期获得更合理的回答效果
Prompt分类
目前Prompt有多种分类,包括零样本提示,少样本提示,链式思考CoT等,网上Prompt参考资料很多,这不一一细说了。可以参考: promptingguide