LLM Prompt通用技巧
本文主要参考https://www.promptingguide.ai/zh并结合自身的一些思考
常用结构:
指令:想要模型执行的特定任务或指令。
上下文:包含外部信息或额外的上下文信息,引导语言模型更好地响应。
输入数据:用户输入的内容或问题。
输出指示:指定输出的类型或格式。
### 将以下文本翻译成西班牙语:###
examples
文本:“hello!”
- 从简单开始,逐步添加上下文和要求,或者分解复杂任务为多个子任务避免初期的困难
- 要非常具体地说明你希望模型执行的指令和任务
- 避免在Prompt上过于聪明,切中要点,避免模糊的要求
- 它应该做什么,而非不能做什么(它应该避免),聚焦于良好的回复上。
Advanced Prompt 技巧
-
COT and Few-shot COT

针对特定任务的Few-shot COT example比较难写,可以在LLM自动生成的COT链路上不断优化微调 -
定义任务分解流程Prompt Chain
对于复杂任务难以一次性解决的或者输入输出太长的,可以多轮调用LLM,进行step-by-step的微调控制
需要对任务步骤有先验知识,且调用次数比较多,通用能力差 -
自动控制COT的阶段(ToT)
自动分解问题阶段(深度),每阶段提出多条路径(广度),以阶段语句为节点单位

最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



