零基础入门提示词工程:超详细学习指南,一篇精通

在这个人工智能飞速发展的时代,大语言模型已深度融入我们的生活与工作。而提示词工程,作为与这些智能模型高效沟通的关键,就像一把打开 AI 潜能的钥匙。对于零基础的人来说,掌握提示词工程能让你在与 AI 交互时不再迷茫,轻松获取所需的精准信息和优质内容。这份超详细学习指南,将陪伴你从对提示词工程一无所知,逐步成长为能熟练运用它的行家。

第一节:提示词工程基础认知

一、提示词的定义与作用​

提示词是我们输入给大语言模型的文字,它承载着我们的需求和指令。提示词工程则是研究如何巧妙设计这些提示词,以引导模型生成符合我们预期的输出。​

一个出色的提示词能让模型精准把握我们的意图,产出高质量的内容,无论是撰写一篇吸引人的文案、解答一个复杂的疑问,还是生成一段实用的代码。相反,模糊不清、逻辑混乱的提示词,可能会让模型给出与我们需求相去甚远的结果,甚至是错误的信息。比如,想让模型写一篇关于 “健康饮食” 的文章,模糊的提示词 “写一篇健康饮食的文章” 可能会让模型内容宽泛、缺乏重点;而精准的提示词 “写一篇适合上班族的健康饮食指南,包含早餐、午餐、晚餐的搭配建议和注意事项”,就能让模型输出更具针对性的内容。

二、撰写Prompt的基本框架

1、Prompt的构成要素
  • 指令:明确要求模型执行的具体任务或操作指令。
  • 上下文:提供外部信息或补充背景内容,引导语言模型更精准地响应。
  • 输入数据:用户输入的问题或内容主体。
  • 输出指示:规定输出结果的类型或格式要求。
2、Prompt的五大框架
2.1 RTF框架

RTF(Role-Task-Format)框架是简洁且通用的Prompt设计框架,适用于所有与大模型对话的场景,可通过该规范优化输出效果。

  • R-Role(角色):为大模型设定特定身份(如程序员、数据分析师、讲解员、记者等)。
  • T-Task(任务):清晰告知大模型需要完成的具体工作。
  • F-Format(格式):指定大模型返回结果的格式(如表格、Markdown、英文等)。

核心优势

  • 框架简单易操作,适配性强。
  • 通过指定角色,可约束大模型在特定领域内输出专业知识,提升回答的针对性。
  • 从工程角度看,角色设定能明确知识检索边界,与元数据结合使用时,可强化知识调用的精准性。
  • 若结合RAG知识检索技术,上下文回答会更连贯自然,提升用户体验。
2.2 思考链模式

借助该模式可逐步提升大模型的推理能力,尤其适用于复杂任务的处理。例如:

  • 分析类或逻辑推理类任务
  • 决策制定
  • 问题解决(如程序员依据错误日志排查Bug)

若要运用此模式,只需在指令末尾添加“让我们逐步思考”。例如:

# 数据源(与指令区分)
user_datasource = """XXX……""" 
prompt1 = """分析一下在人工客服服务场景下,'''{user_datasource}'''中客户有哪些诉求。用一句话概括。"""
prompt2 = """分析一下在人工客服服务场景下,'''{user_datasource}'''中客户有哪些诉求。用一句话概括。让我们逐步思考。"""
# 模型输出结果
output1:在人工客服服务场景下,客户主要诉求为:微信账号存在安全风险导致无法添加好友、单点拦截、下载安装微信出现问题等,寻求客服协助解决问题。
output2:在人工客服服务场景下,客户主要诉求为:微信账号存在安全风险导致无法添加好友,以及因违规行为被限制登录,客户希望客服能够尽快处理这些问题。
# 分析结果
output1中的“单点拦截”并非用户的诉求,而output2的表述显然更为准确。
2.3 RISEN框架
  • R-Role:大模型扮演的角色
  • I-Instructions:指示命令,与Task(任务)概念相近
  • S-Steps:执行步骤
  • E-End Goal:最终目标
  • N-Narrowing (Constraints):范围约束(如内容领域、字数限制等),与RTF框架中的Format(格式约束)思路相似,但约束维度更广泛。

该框架主要适用于:

  • 撰写有特定约束的任务(如博客文章)
  • 遵循明确指导方针的任务(如商业计划书)
2.4 RODES框架
  • R-Role:角色定位
  • O-Objective:目标设定
  • D-Details:细节描述
  • E-Examples:案例示例
  • S-Sense Check:合理性校验

说明

  1. 改写时保留了原框架核心定义、适用场景及示例结构,仅调整表述方式以提升可读性(如“适合”改为“适用于”、补充括号说明等)。
  2. 对技术术语(如“单点拦截”“RTF框架”)保持原文不变,确保专业概念准确性。
  3. 通过分段、符号对齐优化排版,使框架要素与应用场景更清晰对应。
2.5 密度链模式

密度链模式Prompt是由Salesforce、麻省理工学院及哥伦比亚大学的研究人员联合提出的新型提示方式。其核心优势在于高效性——通过递归机制持续优化输出质量,相比普通提示生成的GPT-4摘要,该模式生成的内容信息密度更高,且更符合人类认知习惯,便于理解。

适用场景:

  • 文本总结场景
  • 优化现有常用提示模板
  • 以递归方式生成结构化长文本内容

(注:感兴趣的读者可自行查阅相关研究资料深入了解)

第二节:构建高效Prompt的两大核心准则

在Prompt工程领域,精研撰写策略是激活语言模型潜能的关键。本节将深入剖析prompt设计的两大核心策略,揭示如何通过优化指令,引导模型生成更贴合需求、质量更优的输出内容。

一、原则一:编制明确且具体的指令

为确保模型精准捕捉意图,编写清晰、明确、具体的指令至关重要。这不仅能规避模型误解,还能显著提升输出的相关性与准确性。

策略1:运用分隔符界定输入模块

构建prompt时,通过分隔符将特定文本与其他指令部分隔离,可有效避免提示词冲突。任何能让模型识别独立模块的符号均可作为分隔符,常见类型包括:

  • 章节标题:以不同层级标题区分内容模块。
  • 三重双引号:“”" ,常用于代码中包裹长文本字符串。
  • 三重单引号:‘’’ ,功能与三重双引号一致,适配不同语法场景。
  • 三重破折号:— ,在文本中形成显著分隔。
  • 角括号:<> ,用于标记特定元素。
  • XML标签:,以结构化标签区分内容。

示例1:产品描述总结(分隔符应用)

product_description = f"""这是一款全新的智能手表,具备心率监测、睡眠追踪等健康功能,还支持多种运动模式记录,拥有高清显示屏和长达7天的续航能力。"""
prompt =  f"""请总结以下产品描述:'''{product_description}'''"""

示例2:用户评论情感分析

user_comment = f"""这款手机的拍照效果真的太棒了,色彩还原度高,夜景模式也很出色,唯一不足的是电池续航有点短。"""
prompt = f"""分析以下用户评论的情感倾向:''' {user_comment}''' """

该方式可确保模型清晰区分指令与待处理文本,避免因指令混淆导致输出错误。

策略2:指定结构化输出格式

为便于解析和处理模型输出,可要求其以HTML、JSON等结构化格式返回结果。这能大幅提升数据处理效率,尤其在Python环境中,结构化数据可直接读入字典或列表,简化后续分析操作。

示例1:JSON格式输出(用户诉求与客服方案)

prompt = "请以json格式列出每个nodeType所体现的用户诉求、客服方案。每一个json-value不超过20个字"
# 模型输出
{
"IVR": {"用户诉求": "微信使用问题求助", "客服方案": "引导正常使用或自助处理"},
"ASYNC": {"用户诉求": "账号封禁等相关申诉", "客服方案": "按规则处理或引导自助"},
"AI": {"用户诉求": "支付相关问题咨询", "客服方案": "要求用户详细描述问题"}
}

示例2:HTML格式输出(书籍推荐列表)

prompt = "请以HTML格式列出三本你推荐的科幻小说及其作者。"
# 模型输出
<ul>
    <li>《三体》 - 刘慈欣</li>
    <li>《基地》 - 艾萨克·阿西莫夫</li>
    <li>《银河帝国:机器人五部曲》 - 艾萨克·阿西莫夫</li>
</ul>
策略3:引导模型执行条件校验

处理复杂任务时,若存在非必然成立的假设条件,需引导模型先进行条件检查。若条件不满足,模型应明确提示并终止任务,避免无效计算与错误输出。同时,预设边缘情况的处理规则,可减少意外错误,保障输出稳定性。

示例:数学表达式计算(正数校验)

expression = "5 + 3 - (-2)"
prompt = f"""首先检查表达式 '{expression}' 中的所有数字是否都为正数。如果是,请计算该表达式的值;如果不是,请输出'表达式中存在非正数,无法计算'。"""
# 模型输出
表达式中存在非正数,无法计算
策略4:运用Few-shot prompting(少样本提示)

要求模型执行任务时,提供成功案例可帮助其理解任务要求与输出格式。通过示例,模型能学习任务模式与规律,尤其适用于复杂或特定格式要求的场景,可显著提升输出契合度。

示例:中英翻译与造句(少样本引导)

prompt = """
示例1:
中文词汇:苹果
翻译:apple
造句:I like to eat apples.

示例2:
中文词汇:学校
翻译:school
造句:I go to school every day.

中文词汇:图书馆
翻译:
造句:
"""
# 模型输出
翻译:library
造句:I often read books in the library.
二、原则二:给予模型充足的思考时间

当模型因急于得出结论而出现推理错误时,我们需要通过优化式,为模型提供更清晰的推理路径,引导其进行更深入、全面的思考。

策略一:清晰界定任务执行步骤

为模型详细罗列出完成任务需遵循的具体步骤,可助力其有条不紊地开展推理与计算。借助该方式,模型能更透彻地理解任务的逻辑架构,有效规避因思路紊乱而引发错误。例如,要求模型按特定格式输出内容,可引导其在处理任务时着重关注信息的组织与呈现形式。

实例:要求模型对一首古诗进行分析,格式设定为“诗歌主题 - 主要意象 - 表达情感”。

poem = "床前明月光,疑是地上霜。举头望明月,低头思故乡。"  
prompt = f"""请依照“诗歌主题 - 主要意象 - 表达情感”的格式剖析此诗:{poem}"""  
# 模型输出:思乡之情 - 明月 - 对故乡的深切思念  
策略二:引导模型在结论生成前充分思考方案

明确告知模型在得出最终结论前,需先进行全面的推理与分析,通常能收获更理想的结果。这种做法可推动模型深入探究问题的本质,综合考量各类因素,进而避免因思考片面或仓促判断而出现失误。

实例:向模型询问“如何提升公司的员工满意度”。

prompt = "在回答如何提升公司员工满意度这一问题前,请先思考至少三个维度的因素,随后结合这些因素给出全面建议。"  
# 模型输出:首先,从薪酬福利层面,可适度提高薪资标准、完善福利体系,比如增加带薪休假天数等;其次,从职业发展角度,为员工提供更多培训机会与晋升渠道;再者,从工作环境来看,营造舒适且和谐的办公氛围,加强团队建设活动。综合上述方面,提升公司员工满意度可通过优化薪酬福利、提供职业发展机会以及改善工作环境等举措实现。  
三、模型的局限性与应对策略

尽管语言模型在大规模数据训练下展现出强大能力,但仍存在缺陷。其中,“幻觉”现象是模型面临的关键挑战。

模型“幻觉”

即便模型在训练中接触了海量知识,也无法完全记忆所有信息,且难以精准界定自身知识边界。这导致当面对晦涩主题的问题时,模型可能编造看似合理却错误的内容,此即“幻觉”现象。

解决幻觉的一种策略

为有效应对幻觉问题,可要求模型在回答前先从给定文本中寻找相关引用,并基于引用来构建答案。这种方式能让模型回答基于可靠信息源,而非凭空臆测,从而大幅提升回答的准确性与可信度。同时,该方法还能实现答案的可追溯性,便于对模型输出进行验证和审查。

示例:给定一段关于历史事件的文本,要求模型回答相关问题。

text = """1861年,美国爆发了南北战争,这场战争是美国历史上的重要转折点,它主要围绕奴隶制的存废问题展开,北方主张废除奴隶制,南方则坚持保留。最终北方取得了胜利,为美国的工业化发展铺平了道路。"""  
prompt = f"""请从上述文本中提取信息,回答南北战争主要围绕什么问题展开?"""  
# 模型输出:南北战争主要围绕奴隶制的存废问题展开,北方主张废除奴隶制,南方则坚持保留。  

第三节:Prompt技术剖析与应用

在探索prompt技术的过程中,我们将逐一解析多种关键技术,助您精准掌握其核心要点与应用场景,切实提升应用能力。

一、零样本提示(Zero-Shot Prompting)

零样本提示是指模型在无特定任务示例的情况下直接处理任务的技术。其原理是模型通过大量数据训练和指令调整,具备了通用知识和任务理解能力。例如:

prompt = "判断此文本的情感倾向为积极、消极或中性:这部电影情节紧凑,特效惊人。情感:"  
# 模型会依据预训练知识处理提示并输出结果  

模型可输出“积极”。但由于缺乏具体示例引导,复杂任务的处理效果可能受限。

二、少样本提示(Few-Shot Prompting)

当零样本提示效果不佳时,少样本提示可发挥作用。它通过为模型提供少量任务示例,帮助其学习任务模式和规律。例如:

prompt = """“whatpu”是坦桑尼亚的一种小型毛茸茸的动物。使用whatpu的句子示例:我们在非洲旅行时看到了这些非常可爱的whatpus。“farduddle”是指快速跳上跳下。使用farduddle的句子示例:"""  
# 模型会根据前面示例学习并生成新句子  

通过提供新词汇造句示例,模型可模仿示例的结构和逻辑生成内容,但复杂推理任务仍需优化。

三、思维链提示(Chain-of-Thought Prompting)

思维链提示旨在为模型提供清晰的推理步骤引导,以提升其在复杂推理任务中的表现。它通过在提示中展示详细推理过程,让模型学习逐步分析问题的方法。例如:

prompt = """Roger 有5个网球,又买了2罐网球,每罐3个,他现在共有多少球?Roger 一开始有5个球。2罐网球,每罐3个,共6个。5 + 6 = 11。答案是11。"""  
# 模型按提示中的推理步骤计算和回答  

该技术可与少样本提示结合以增强效果,尤其适用于算术、常识推理等任务,帮助模型有条理地处理问题。

四、自我一致性(Self-Consistency)

自我一致性技术主要用于优化思维链提示中的推理路径选择。其核心是通过提供多个少样本推理示例,让模型从多样结果中筛选最一致的答案,增强在算术和常识推理任务中的可靠性。例如:

prompt = """Q:林中有15棵树,林业工人今天种树后有21棵。工人今天种了多少棵?A:初始15棵,后来21棵,差值即种树数量,21 - 15 = 6棵。答案6。Q:停车场有3辆汽车,又来2辆,现在有多少辆?A:原有3辆,新增2辆,3 + 2 = 5辆。答案5。Q:我6岁时妹妹年龄是我的一半,现在我70岁,妹妹多大?A:"""  
# 模型参考前面推理示例回答最后一个问题,并从多个可能答案中选择最一致的结果  
五、生成知识提示(Generated Knowledge Prompting)

生成知识提示主要用于解决模型在处理需要额外知识的任务时出现的局限性。它的操作方式是先让模型生成与任务相关的知识,再整合这些知识得出准确答案。比如:


prompt = """输入:高尔夫球的一部分是试图获得比其他人更高的得分。
知识:高尔夫球的目标是以最少的杆数打完一组洞。一轮高尔夫球比赛通常包括 18 个洞。每个洞在标准高尔夫球场上一轮只打一次。每个杆计为一分,总杆数用于确定比赛的获胜者。
解释和答案:"""
# 模型根据生成的知识对问题进行回答

像这样先生成相关知识,再整合知识得出准确答案“不是,高尔夫球的目标是以最少杆数完成比赛,而非追求更高得分”,有效提升模型在常识推理任务的准确性。

六、链式提示(Prompt Chaining)

链式提示是将复杂任务拆解为多个子任务,通过逐个子任务生成提示并传递结果的方式来实现复杂任务的有序处理。以文档问答为例:

# 第一个提示用于提取相关引文
prompt1 = """你是一个很有帮助的助手。你的任务是根据文档回答问题。第一步是从文档中提取与问题相关的引文,由####分隔。请使用<quotes></quotes>输出引文列表。如果没有找到相关引文,请回应“未找到相关引文!”。#### {{文档}} ####"""
# 假设这里有一个文档变量 doc,将其代入提示中进行处理
# 处理后得到引文列表,假设为 quotes_list

# 第二个提示根据引文和文档生成回答
prompt2 = """根据从文档中提取的相关引文(由<quotes></quotes>分隔)和原始文档(由####分隔),请构建对问题的回答。请确保答案准确、语气友好且有帮助。#### {{文档}} #### <quotes>{quotes_list}</quotes>"""
# 模型根据第二个提示生成最终回答

这种方式提高了任务处理的准确性与可靠性,使得模型能够逐步深入地处理复杂问题。

七、思维树(ToT)

思维树框架是为了帮助模型应对复杂的探索性任务而设计的。它通过维护一棵思维树,让模型在解决问题时能够生成和评估中间思维步骤,并结合搜索算法进行系统性探索。示例如下:

# 假设给定数字为 4、9、10、13
prompt = """输入: 4 9 10 13
4 + 9 = 13 (left 10 13 13)
10 - 4 = 6 (left 6 9 13)
13 - 6 = 7 13 - 9 = 4
4 + 6 = 10 (left 7 9 4 * 6 = 24 (left 4 6)
评估是否能得到 24: sure
"""
# 模型按照思维树的步骤进行推理和计算,并根据评估结果继续搜索或得出答案

八、检索增强生成(RAG)

检索增强生成(RAG)技术将信息检索与文本生成相结合,专门用于处理知识密集型任务。它通过检索相关文档来为模型提供额外的知识支持,从而缓解模型的“幻觉”问题。例如:

# 假设这里有一个检索函数 retrieve_documents 和一个生成答案的函数 generate_answer
question = "谁是首次登上月球的人?"
documents = retrieve_documents(question)
prompt = "根据以下文档回答问题:" + str(documents) + " 问题是:" + question
answer = generate_answer(prompt)
# 最终得到的 answer 即为模型结合检索结果生成的答案

这有效确保答案基于可靠知识源,在自然问题、事实验证等基准测试中表现卓越。

九、自动推理并使用工具(ART)

自动推理并使用工具(ART)技术使模型能够自动生成包含推理步骤的程序,并在需要时调用外部工具。例如:

prompt = """计算 16 个苹果平均分给 4 个人,每人几个,再加上 3 是多少?
请生成解决这个问题的程序步骤。"""
# 模型会生成类似下面的程序步骤
# result = (16 / 4) + 3
# 然后可以在代码中执行这个程序步骤得到最终答案

在 BigBench 和 MMLU 基准测试中,ART 在多种任务上表现突出,显著超越少样本提示和自动 CoT 等方法,提升了模型解决问题的能力和效率。

十、自动提示工程师(APE)

自动提示工程师(APE)技术能够自动生成和筛选任务指令。它通过利用大型语言模型生成指令候选项,再依据评估分数选择最佳指令,从而提升提示生成的效率与效果。比如:

# 假设这里有一个生成指令候选项的函数 generate_candidates 和一个选择最佳指令的函数 select_best_instruction
article = "这里是一篇新闻文章的内容"
candidates = generate_candidates(article)
prompt = select_best_instruction(candidates) + " " + article
# 模型根据最终的 prompt 生成文章总结

例如总结新闻文章时,它先利用大型语言模型生成如“提取文章关键人物、事件和时间”“概括文章主要内容并突出重点”等指令候选项,再依据评估分数选择最佳指令,指导模型生成高质量总结。

十一、Active-Prompt

Active-Prompt 技术主要用于解决思维链示例有效性的问题。它通过先查询模型生成多个答案,计算不确定度后挑选最不确定的问题由人类注释示例,再用新示例推断其他问题,从而优化模型对不同任务的适应性。比如:

# 假设这里有一个查询模型生成答案的函数 query_model 和一个计算不确定度的函数 calculate_uncertainty
prompt = "对以下文本进行分类:这是一篇科技类文章。"
answers = query_model(prompt, num_answers=5)  # 生成 5 个答案
uncertainty = calculate_uncertainty(answers)
if uncertainty > threshold:  # 如果不确定度大于设定阈值
    # 选择最不确定的问题由人类注释示例,然后更新提示并重新查询模型
    new_prompt = update_prompt_with_annotated_example(prompt)
    final_answer = query_model(new_prompt)
else:
    final_answer = select_most_consistent_answer(answers)
# 最终得到的 final_answer 即为经过 Active-Prompt 处理后的答案

通过这种方式,能够提高模型在文本分类等任务中的准确性。

十二、方向性刺激提示(Directional Stimulus Prompting)

方向性刺激提示通过训练策略 LM 生成引导提示,增强对模型生成结果的掌控力。例如文本摘要任务:

article = "这里是一篇文章的内容"
prompt = "请根据文章内容生成一个引导提示,重点关注文章的主要事件和结果。"
# 策略 LM 会根据这个提示生成如“重点提取文章中事件的主体、发生的时间和最终结果”的引导提示
# 然后可以将这个引导提示用于后续的文本摘要任务中

在文本摘要任务中,策略 LM 依据文章主题、关键信息等生成引导提示,指导模型生成符合需求的摘要,提升摘要质量。

十三、PAL(程序辅助语言模型)

PAL(程序辅助语言模型)技术让模型生成程序来解决问题,借助编程运行时提升解决复杂问题的能力。以日期计算问题为例:

question = "今天是 2023 年 2 月 27 日,我出生于 25 年前,我的出生日期是多少?"
prompt = """
import datetime
from dateutil.relativedelta import relativedelta

# Q: 2015 年在 36 小时后到来。从今天起一周后的日期是多少(格式为 MM/DD/YYYY)?
# 如果 2015 年在 36 小时后到来,那么今天是 36 小时前。
today = datetime(2015, 1, 1) - relativedelta(hours=36)
# 从今天起一周后,
one_week_from_today = today + relativedelta(weeks=1)
# 格式化后的答案
one_week_from_today.strftime('%m/%d/%Y')

# Q: 今天是 2023 年 2 月 27 日,我出生于 25 年前,我的出生日期是多少?
"""
# 模型会生成类似下面的代码
# today = datetime(2023, 2 27)
# born = today - relativedelta(years=25)
# born.strftime('%m/%d/%Y')
# 然后可以在代码中执行模型生成的代码得到最终答案

十四、ReAct 框架

ReAct 框架使模型交错生成推理轨迹和操作,提升答案的可靠性与可解释性。以回答问题为例:

question = "除苹果遥控器外,哪些设备可控制其设计交互的程序?"
prompt = """问题:除苹果遥控器外,哪些设备可控制其设计交互的程序?
思考 1:我需要搜索苹果遥控器相关程序及可替代控制设备。
操作 1:搜索 [苹果遥控器 可替代控制设备]
观察 1:搜索结果为……
思考 2:根据搜索结果,分析哪些设备符合要求。
操作 2:筛选 [符合要求的设备]
观察 2:筛选结果为……
思考 3:整理最终答案。
操作 3:整理 [最终答案]
"""
# 模型会按照提示中的推理轨迹和操作步骤进行处理,并最终得出答案

在知识密集型和决策任务中表现良好,通过与外部环境交互获取信息来辅助推理。

十五、自我反思(Reflexion)

自我反思框架包含参与者、评估者和自我反思三个模型,旨在帮助模型从错误中学习并提升性能。模拟编程任务的示例如下:

# 假设这里有参与者模型 actor、评估者模型 evaluator 和自我反思模型 reflexion
code = "这里是一段初始代码"
# 参与者模型生成尝试解决问题的代码和动作
result = actor(code)
# 评估者模型评价输出
score = evaluator(result)
# 自我反思模型根据评价结果生成改进建议
reflection = reflexion(score, result)
# 将改进建议应用到下一次的代码生成中,实现自我学习和提升

如代码出现语法错误,自我反思模型会提示可能错误原因及修正方向,帮助模型快速学习。

附录

一、术语表
  1. Prompt:在大语言模型应用中,用于“提示”模型唤起特定能力以解决实际问题的提问方式,是prompt工程的核心。
  2. RTF框架:Role - Task - Format框架,通过指定角色、任务和格式规范大模型输出,简单通用。
  3. 思考链模式:在提示末尾添加“让我们逐步思考”,引导大模型逐步分析复杂任务,改善推理能力。
  4. RISEN框架:包含角色、指示命令、步骤、最终目标和缩小范围(约束条件),适合特定约束或明确指导方针的任务。
  5. RODES框架:涵盖角色、目标、详细细节、示例和感官检查的提示框架。
  6. 密度链模式:利用递归创建更好输出的提示,生成的摘要更密集且适合理解,适用于总结等任务。
  7. 少样本提示(Few - shot prompting):为模型提供少量任务示例,帮助其学习任务模式和规律,提升在复杂或特定格式任务中的表现。
  8. 零样本提示(Zero - Shot Prompting):模型在无特定任务示例展示下,依靠自身预训练知识和任务理解能力直接处理任务。
  9. 思维链提示(Chain - of - Thought Prompting):为模型展示详细推理过程,提升其在复杂推理任务中的表现,可与少样本提示结合。
  10. 自我一致性(Self - Consistency):通过提供多个少样本推理示例,让模型筛选最一致答案,增强在算术和常识推理任务中的可靠性。
  11. 生成知识提示(Generated Knowledge Prompting):先让模型生成与任务相关知识,再整合知识得出准确答案,解决模型处理需额外知识任务的局限性。
  12. 链式提示(Prompt Chaining):将复杂任务拆分为多个子任务,逐个子任务生成提示并传递结果,提高任务处理准确性与可靠性。
  13. 思维树(ToT):通过维护思维树,让模型生成和评估中间思维步骤,结合搜索算法应对复杂探索性任务。
  14. 检索增强生成(RAG):将信息检索与文本生成结合,检索相关文档为模型提供知识支持,缓解“幻觉”问题。
  15. 自动推理并使用工具(ART):使模型自动生成包含推理步骤的程序,并在需要时调用外部工具,提升解决问题能力和效率。
  16. 自动提示工程师(APE):利用大型语言模型生成指令候选项,依据评估分数选择最佳指令,提升提示生成效率与效果。
  17. Active - Prompt:先查询模型生成多个答案,计算不确定度后挑选最不确定问题由人类注释示例,优化模型对不同任务的适应性。
  18. 方向性刺激提示(Directional Stimulus Prompting):训练策略LM生成引导提示,增强对模型生成结果的掌控力,提升文本摘要等任务的质量。
  19. PAL(程序辅助语言模型):让模型生成程序来解决问题,借助编程运行时提升解决复杂问题的能力。
  20. ReAct框架:使模型交错生成推理轨迹和操作,提升答案的可靠性与可解释性,在知识密集型和决策任务中表现良好。
  21. 自我反思(Reflexion):包含参与者、评估者和自我反思三个模型,帮助模型从错误中学习并提升性能。
二、常见问题解答

1.如何选择合适的Prompt框架?

根据任务类型和需求选择。如简单对话场景可选用RTF框架;复杂分析任务可考虑思考链模式或RISEN框架;对输出格式有严格要求的,可在RTF、RISEN框架中关注格式或约束条件设定;进行总结类任务,密度链模式可能更合适。

2.为什么模型会出现“幻觉”现象?

模型虽经大量数据训练,但无法完美记住所有知识,也难以精准把握知识边界,面对复杂或生疏主题问题时,就可能编造看似合理但错误的内容。

3.如何利用少样本提示提升模型性能?

提供与任务相关、格式规范的成功示例,示例要涵盖任务的关键要素和模式,让模型学习示例中的规律和逻辑,从而在处理实际输入时生成更符合预期的结果。尤其适用于复杂任务或对输出格式有特定要求的情况。

4.链式提示在实际应用中有哪些优势?

将复杂任务拆解为子任务,使模型处理过程更清晰、有序,逐步深入解决问题,提高了任务处理的准确性与可靠性,避免模型在处理复杂问题时因任务过于复杂而出现混乱或错误。

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值