大模型提示词 | 常见的提示词框架分享,如何高效撰写优质 Prompt?

prompt 的重要性相信大家都知道,本文我们一起来讨论一下如何利用提示词框架,高效高质量的编写 Prompt

一、提示词框架

提示词框架有如下作用:

  • 降低沟通成本:通过结构化要素,减少模型对需求的误判;统一风格也利于和他人交流
  • 提升输出质量:明确角色、结构与评估标准,让结果更贴合预期;
  • 适配多模型场景:不同 AI 工具(如 GPT、Claude、代码模型)可通过框架调整提示策略。
  • 优化友好:当需要优化提示词时可以清晰的知道优化位置。

下面介绍两种常见的框架以及我常用的提示词模版。

RICE 框架

通过明确四大要素,让 AI 模型快速理解任务边界与目标。 全称:Role(角色)、Input(输入)、Context(上下文)、Expectation(期望输出)

  1. Role(指定模型角色)
  • 作用:定义模型在任务中的身份(如 “你是一位资深数据分析师”“你是科普博主”),引导其使用对应领域的知识与表达风格。
  • 例子: “假设你是一名金融分析师,请分析…”
  1. Input(明确输入内容)
  • 作用:提供任务的具体素材(如问题、数据、文本片段),确保模型基于准确信息响应。
  • 例子: “输入数据:某公司 2024 年财报显示营收增长 15%… 请分析其盈利趋势。”
  1. Context(补充背景信息)
  • 作用:说明任务的应用场景、限制条件或前置知识,避免模型输出偏离实际需求。
  • 例子: “背景:该分析将用于投资者路演,需简洁呈现核心结论。”
  1. Expectation(清晰输出预期)
  • 作用:规定输出的形式(如表格、报告、代码)、详细程度或重点方向。
  • 例子: “期望输出:用 3 点总结投资建议,每点不超过 20 字。”

CRISPE 框架

通过多维度拆解任务,提升提示词的逻辑性与可控性。 全称:Clarify(澄清)、Role(角色)、Input(输入)、Structure(结构)、Prompt(指令)、Evaluate(评估)

  1. Clarify(澄清需求)
  • 作用:先明确任务的核心目标,避免模糊表述导致模型误解。
  • 例子: “需解决的问题:如何用 Python 优化数据可视化效率?”
  1. Role(角色定义) 与 RICE 一致:指定模型身份(如 “你是 Python 开发专家”)。

  2. Input(输入) 细化要求:明确输入数据的格式、来源或处理方式(如 “基于附件中的 CSV 文件…”)。

  3. Structure(输出结构设计)

  • 作用:预设输出的框架(如 “分步骤说明 + 代码示例 + 注意事项”),让结果更规整。
  • 例子: “输出需包含:①原理分析 ②代码片段 ③性能对比表格”
  1. Prompt(核心指令)
  • 作用:用具体动作词引导模型(如 “生成”“优化”“诊断”),避免抽象指令。
  • 例子: “请编写一个函数,实现数据批量清洗,并注释关键步骤。”
  1. Evaluate(结果评估标准)
  • 作用:提前设定输出的验收条件(如 “准确率需≥95%”“代码无报错”)。
  • 例子: “确保生成的方案在实际场景中可落地,附可行性测试步骤。”

框架模版

这里给出一个我常用的框架模版,使用时只需要替换其中变量即可

## 角色
你是一个{{xxx}},你擅长{{xxx}}, 请按照要求完成下面的任务

## 输入
(可选,如果用在某个专用场景可以描述输入的内容范围和格式,便于大模型更好的理解、解析)

## 背景
{{context}}

## 任务(目标)
{{task1}}
{{task2}}

## 规则
{{要求&约束列表1}}
{{要求&约束列表1}}
(
  可以提供少样本学校案例,比如:
  问:xxx
  答:不建议的回复 v1
  答:建议回复 v2
)

## 格式
{输出格式, 比如:使用 Json 格式输出,包含 xx,yy 字段}

二、如何进行提示词优化

有了上面的提示词框架我们能轻松写出 60 分的提示词,想要更近一步需要我们在使用过程中不断优化,当然也可以学习其他平台的提示词或着借助一些优化工具去加速这个过程。

  1. 参考资料
  • GitHub仓库https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools 提供各平台的系统提示词。
  • Google-Prompting-Guidehttps://services.google.com/fh/files/misc/gemini-for-google-workspace-prompting-guide-101.pdf
  1. 测试与优化工具
  • Claude Optimizer:自动分析Prompt结构并提出改进建议(如添加XML标签、调整逻辑层级)。
  • 火山引擎、Coze罗盘:支持根据测试用例批量优化,根据对回答的反馈进行优化,缺点是指支持 豆包模型
    img
  • 通过Cursor-Agent: 和编码流程贴合,适合优化AI编程中的提示词,搭建低成本

三、如何系统学习掌握AI大模型?

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方优快云官方认证二维码,免费领取【保证100%免费

### 使用大模型提示工程技术实现检索增强生成 (RAG) 为了利用大型语言模型的提示词技巧来实现检索增强生成(RAG),可以通过设计特定结构化的输入模板,使模型能够更好地理解和处理检索到的信息。这种方法不仅提高了模型对于复杂查询的理解能力,还增强了其生成高质量响应的能力。 #### 设计提示词 构建有效的提示词是成功实施这一策略的关键所在。通常情况下,提示应包含以下几个部分: - **背景信息**:提供给定主题的相关上下文描述。 - **指令说明**:清晰地告知模型所需执行的任务类型及其目标。 - **数据源指示**:指明用于辅助决策的具体文档片段或其他形式的知识库条目位置。 - **期望输出格式**:定义希望得到的结果样式或模式。 例如,在医疗咨询场景下,可以创建如下所示的提示框架[^2]: ```plaintext 基于以下病历记录,请回答患者关于病情诊断方面的问题,并给出建议治疗方案: {病历摘要} 问题:{具体询问内容} 参考资料: 1.{文献A标题} - {链接地址} 2.{文献B标题} - {链接地址} 请按照上述资料撰写一份详细的回复。 ``` 这,“病历摘要”代表从电子健康档案系统中提取出来的病人基本信息;而“具体询问内容”则是由用户提出的实际疑问。“参考资料”的加入使得LLM能够在作答时参考权威性的医学指南或是最新的研究成果,从而提高答案的专业性和准确性。 #### 实现过程中的注意事项 当采用这种方式开发应用时需要注意几个要点: - 确保所选的大规模预训练语言模型具备足够的参数量以及良好的泛化性能; - 对于不同的行业领域定制专属的数据集来进行微调操作,以便让模型更加贴合业务需求; - 定期更新外部资源列表,保持知识的新鲜度与可靠性; - 测试并调整提示的设计直至获得满意的交互效果为止。 通过精心准备的提示工程,可以在不改变原有架构的前提下赋予现有LLMs更强的功能特性——即实现了所谓的“检索增强”。 ```python def generate_rag_response(prompt_template, context, question, references): """ Generate a response using the RAG approach with large language models. :param prompt_template: The template string for constructing prompts. :param context: Contextual information related to the query. :param question: User's specific inquiry. :param references: List of reference materials or documents. :return: Generated answer based on provided inputs and external knowledge sources. """ formatted_prompt = prompt_template.format( context=context, question=question, references="\n".join([f"{i+1}. {ref}" for i, ref in enumerate(references)]) ) # Assuming `model` is an instance of a pre-trained LLM API client generated_text = model.generate(formatted_prompt) return generated_text ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值