Prompt 18个经典框架方法论

我们来讲解 18 个常见的提示词方法论(下称框架,含配图、示例),这些方法论有些是基于要件(即必须满足的条件或特征,如 CHAT 模型)或基于模板(提供特定的结构和格式,如 BROKE 模型,以及 LangGPT 模型)

1.提示词框架简介

1.1 APE (Action Purpose Expect)提示词框架

APE 框架提倡将用户的请求分解为三个主要部分:行动、目的和期望。这种分解方法使得与大模型的交互更加明确和高效。

行动 (Action):定义需要完成的特定任务、行动或活动。这是框架的第一步,旨在明确要执行的具体任务或活动。

目的 (Purpose):讨论意图或目标。这部分是为了解释为什么要执行这个特定的任务或活动,它的背后意图是什么,以及它将如何支持更大的目标或目标。

期望 (Expectation):陈述期望的结果。在这最后一步,明确表述通过执行特定任务或活动期望实现的具体结果或目标。

例: 假设你是一家产品销售公司的营销经理,你想通过社交媒体广告来提高产品的在线销售。按照 APE(行动,目的,期望)框架,你可以创建以下提示词:

1.行动 (Action):计并发布一系列的社交媒体广告,宣传我们的最新产品。

2.目的 (Purpose):通过吸引社交媒体用户的注意,提高产品的在线销售和品牌知名度。

3.期望 (Expectation):在接下来的一个月中,通过社交媒体广告,在线销售增加 30%,并且我们的品牌在社交媒体上的关注度提高 20%。

通过这个 APE 提示词,团队能够清晰地理解要执行的行动、达成的目的以及期望实现的具体结果,从而能够更有效地执行广告活动。

1.2 BROKE提示词框架

陈财猫老师的 BROKE 框架融合了 OKR(Objectives and Key Results)方法论,旨在通过 GPT 设计提示,提高工作效率和质量。这个框架分为五个部分,其中最后一个部分,有比较长远的视角。

  • 背景 (Background): 提供足够的背景信息,使 GPT 能够理解问题的上下文。
  • 角色 (Role): 设定特定的角色,让 GPT 能够根据该角色来生成响应。
  • 目标 (Objectives): 明确任务目标,让 GPT 清楚知道需要实现什么。
  • 关键结果 (Key Results): 定义关键的、可衡量的结果,以便让 GPT 知道如何衡量目标的完成情况。
  • 演变 (Evolve): 通过试验和调整来测试结果,并根据需要进行优化。

这个框架的设计旨在通过结构化的方法来提升 GPT 的提示设计,从而达到更高的效率和质量。它不仅仅是一个静态的框架,而是一个动态的过程,通过不断的测试和调整,来优化提示的设计和输出。

以下是一个应用 BROKE 框架的提示实例,主题是 " 如何提高编程技能 ":

BROKE 框架实例:

**_Background:_** _编程是一种重要的技能,能帮助解决各种问题。随着技术的快速发展,不断地学习和提高编程技能变得至关重要。_
**_Role:_** _假设你是一名经验丰富的编程导师,能提供实用的建议和指导。_
**_Objectives:_**
_了解编程基础和核心概念。_
_通过实际项目实践和提高编程技能。_
_接受同行和导师的反馈,了解进步和需要改进的地方。_
**_Key Results:_**
_完成至少 5 个不同类型的编程项目。_
_每个项目后都能获得专业的反馈和建议。_
_至少阅读和总结 10 篇关于编程最佳实践和新技术的文章。_
**_Evolve:_**
_每个月评估一次学习进度,调整学习计划。_
_根据项目实践和反馈来调整学习资源和方法。_
_如果发现某个学习资源或方法不再有效,寻找新的替代方案。_

通过应用 BROKE 框架,可以创建结构化和明确的 GPT 提示,从而更有效地达成目标,提高工作效率和质量。同时,通过不断的评估和调整,可以确保持续的进步和优化,从而形成一个正向的循环,不断地推动自己向前。

1.3CHAT提示词框架

CHAT 框架集中于角色、背景、目标和任务四个核心部分,为用户与大模型的深度交互提供了全面的指导。

角色 (Character)

角色为大模型提供了关于用户身份和角色的信息,有助于大模型更好地定制其回应。例如,一个医生可能需要的信息与一个学生完全不同。

背景 (History)

背景部分提供了与当前问题相关的历史信息和背景知识。这使得大模型能够更好地了解用户所在的上下文环境。

目标 (Ambition)

目标描述了用户希望从与大模型的交互中实现的长期或短期目标。它可以帮助大模型提供更有针对性的建议和解决方案。

任务 (Task)

任务部分明确了用户希望大模型执行的具体任务或行动。这是最直接的指导,告诉大模型用户期望的具体操作或回答。

**_示例:_**

**_用户:_**_我是一名历史教师,想知道关于古罗马的教学资源。_

**_大模型提示词框架__:_**

**_角色:_**_历史教师_

**_背景:_**_需要教授古罗马历史_

**_目标:_**_寻找高质量的教学资源_

**_任务:_**_提供古罗马的教学资源或推荐_

这种交互策略使得大模型能够更准确、更有针对性地为用户提供所需的答案和资源。

1.4、CRISPE提示词框架

详见 GitHub -
mattnigh/ChatGPT3-Free-Prompt-List:https://github.com/mattnigh/ChatGPT3-Free-Prompt-List/blob/main/README.md

CRISPE 是由 Matt Nigh 创建,它提供了结构和清晰度,将提示创建过程分解为明确和不同的步骤。该框架包括五个主要组成部分:

能力和角色 (Capacity and Role): 定义 ChatGPT 应扮演的角色或角色。

洞察 (Insight): 提供有关请求的幕后洞察、背景和上下文。

声明 (Statement): 说明

本文原创作者:姚瑞南 AI-agent 大模型运营专家/音乐人/野生穿搭model,先后任职于美团、猎聘等中大厂AI训练专家和智能运营专家岗;多年人工智能行业智能产品运营及大模型落地经验,拥有AI外呼方向国家专利与PMP项目管理证书。(转载需经授权) 内容概要:本本文详细介绍了结构化Prompt的概念及其优势,解释了如何通过结构化的方式提高Prompt的质量。结构化Prompt借鉴了写作中的层级结构,利用标识符和属性词构建清晰的Prompt模板,从而提升人机交互的效率和准确性。文中还对比了CRISPE框架与结构化Prompt的区别,强调结构化Prompt在层级结构、语义认知、定向唤醒大模型能力以及像代码一样构建生产级Prompt方面的优势。此外,文章探讨了如何写好结构化Prompt,包括构建全局思维链、保持上下文语义一致性、结合其他Prompt技巧等内容,并指出了结构化Prompt的局限性和适用性。 适合人群:对大语言模型有初步了解,希望提升Prompt设计水平的研发人员、工程师及技术爱好者。 使用场景及目标:①用于设计更高效、更准确的Prompt,以提升与大语言模型交互的效果;②适用于需要构建复杂Prompt的生产级应用场景;③帮助开发者更好地理解和利用大语言模型的能力,解决实际问题。 其他说明:结构化Prompt并非绝对最优解,其效果依赖于基座模型的能力,且不能解决模型本身存在的局限性。文中提供了多个结构化Prompt的高质量模板,可供参考和实践。
<think>好的,我现在需要处理用户关于查找与“prompt”相关的研究论文的请求。首先,用户已经提供了一些现有的引用,比如引用[1]到[4],其中引用[4]提到了魏杰森等人的思维链提示论文。用户可能需要更多类似的文献。 首先,我应该确定用户的需求范围。用户提到“prompt related research papers”,这可能包括提示工程(prompt engineering)、提示方法在NLP中的应用、以及相关的模型优化技术。需要确保覆盖不同子领域的关键论文。 接下来,我需要回忆或查找相关的重要论文。例如,2020年提出的PET(Pattern-Exploiting Training)方法,这属于提示工程的一部分。另外,还有关于零样本、少样本学习的研究,比如GPT-3的相关论文。此外,还有提示在对话系统中的应用,如Google的LaMDA,以及多模态提示,如CLIP模型。 然后,我需要检查用户提供的现有引用,确保不重复。引用[4]已经提到了思维链提示,因此需要补充其他相关研究。例如,可以包括PET、GPT-3、FLAN等模型的研究,以及多模态和自动化提示生成的工作。 另外,用户可能需要了解如何访问这些论文,所以需要提及常用的平台如arXiv、Google Scholar,以及工具如Connected Papers。同时,注意引用格式的正确性,包括作者、标题、期刊或预印本信息以及arXiv编号。 最后,生成相关问题需要考虑用户可能的后续需求,比如具体子领域、最新趋势或实际应用,确保问题具有引导性,帮助用户深入探索主题。</think>关于提示(prompt)相关研究的重点论文推荐如下: ### 核心研究方向及代表作 1. **提示工程基础理论** - 《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》系统梳理了NLP领域中的提示学习方法论[^5] - 《The Power of Scale for Parameter-Efficient Prompt Tuning》提出参数高效的提示调优方法$$ \mathcal{L}_{prompt} = \mathbb{E}_{(x,y)}[-\log P(y|x,prompt)] $$ [^6] 2. **思维链推理** - 您已提到的魏杰森团队工作《Chain-of-Thought Prompting》是该领域奠基性研究[^4] - 最新进展《Automatic Chain of Thought Prompting in Large Language Models》提出自动化思维链生成框架[^7] 3. **多模态提示** - 《Multimodal Prompting with Missing Modalities for Visual Recognition》解决多模态数据缺失下的提示学习问题[^8] - 《Prompting Vision-Language Models for Efficient Video Understanding》将提示学习扩展到视频理解领域[^9] 4. **提示自动化** - 《AutoPrompt: Automatic Prompt Construction for Masked Language Models》开发自动生成提示的算法 $$ \max_{p} \mathbb{E}_{x}[\log P(y|x,p)] $$ [^10] ### 论文获取途径 1. arXiv预印本平台(https://arxiv.org) 2. ACL Anthology(https://aclanthology.org) 3. Google Scholar关键词: ```python search_terms = "prompt engineering|chain of thought|prompt tuning|in-context learning" ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值