在日新月异的生成式AI领域,几个核心的专业术语不仅频繁出现在讨论、博客和会议中,更是技术发展的关键驱动力。它们分别是:****“Prompt Engineering(提示工程)”、“Function Calling(函数调用)”、“RAG(检索增强生成)”和“Fine-tuning(微调)”。
一、Prompt Engineering(提示工程)
什么是Prompt Engineering**?Prompt Engineering,即提示工程,是指设计和优化输入给大型语言模型(LLM)的文本提示(Prompt)****的过程。**这些提示旨在引导LLM生成符合期望的、高质量的输出。
它能够根据特定任务需求优化输入提示,引导大语言模型生成更准确、全面、符合格式要求的输出,从而提升模型在多样化应用场景中的性能和实用性。
Prompt Engineering
Prompt Engineering的核心要素在于通过明确的指示、相关的上下文、具体的例子以及准确的输入来精心设计提示,从而引导大语言模型生成符合预期的高质量输出。
Prompt Engineering
-
指示(Instructions):明确告诉模型需要执行的任务或生成的内容类型。这些指示应该清晰、具体,避免歧义。
-
上下文(Context):为模型提供与任务相关的背景信息。上下文可以帮助模型更好地理解任务,并生成更加准确和相关的输出。
-
例子(Examples):通过给出具体示例来展示期望的输出格式或风格。例子可以极大地提高模型的生成质量,因为它为模型提供了一个明确的参考框架。
-
输入(Input):任务的具体数据或信息。这是模型生成输出的基础,输入的质量直接影响到输出的质量。
-
输出(Output):虽然输出不是Prompt Engineering的直接组成部分,但它是Prompt设计的最终目标。通过不断优化Prompt,我们可以引导模型产生更加符合期望的输出。
Prompt Engineering
二、Function Calling(函数调用)****
**什么是Function Calling?**在生成式AI的上下文中,函数调用通常指的是LLM在生成响应时,能够识别并执行特定的函数或API调用,以获取额外的信息或执行特定的任务。
函数调用增强了LLM的扩展性和实用性,使其能够跨越语言模型的边界,与数据库、Web服务等外部系统无缝交互,从而提供更加全面和实时的信息。
Function Calling
Function Calling在智能助手和自动化流程中的应用场景中,LLM通过调用外部API或预设函数来集成多样化服务与复杂操作,以满足用户请求并自动化执行流程。
-
在构建智能助手时,LLM可能需要根据用户的请求调用外部服务(如天气查询API、数据库查询等),并将结果整合到其响应中。
-
在自动化流程中,LLM可以通过调用预设的函数来执行一系列复杂的操作,如数据处理、文件生成等。
Function Calling
以查询天气为例,以下是LLM调用外部天气API的具体流程:
-
用户输入:用户向LLM询问“今天北京的天气怎么样?”
-
理解需求:LLM解析用户输入,识别出用户的意图是查询天气。
-
决定是否使用工具:LLM判断需要调用外部天气API来获取准确信息。
-
准备调用信息:LLM生成调用天气API所需的参数,如城市(北京)和日期(今天)。
-
发送请求:LLM将调用信息封装成HTTP请求,发送给天气API。
-
接收响应:天气API返回当前北京的天气信息给LLM。
-
结合结果进行回复:LLM解析天气信息,并生成易于理解的回复给用户,如“今天北京天气晴朗,温度25°C,适宜外出。”
Function Calling
三、RAG(检索增强生成)
******什么是RAG?RAG(Retrieval Augmented Generation,检索增强生成)******是一种结合检索和生成的技术,旨在提高LLM在生成响应时的准确性和信息量。它通过从外部知识库中检索相关信息,并将这些信息作为LLM生成响应的额外输入。
-
精准检索:RAG通过信息检索技术,从大规模的文档集合或知识库中检索出与给定输入最相关的信息。这种检索方式比传统的关键词匹配更加精准,能够捕捉到更丰富的上下文信息。
-
高效检索:RAG利用索引和检索算法,如向量数据库和查询检索器,快速地从文本数据中提取相关内容。这大大提高了信息检索的效率,使得模型能够在短时间内处理大量数据。
RAG
RAG在学术写作与新闻摘要/报告生成中,助力LLM(大型语言模型)精准检索最新可靠信息,确保内容权威性与时效性。
-
在学术写作中,RAG可以帮助LLM从大量文献中检索相关引用和论据,从而生成更加权威和详尽的论文。
-
在新闻摘要或报告生成中,RAG可以确保LLM生成的内容基于最新的、可靠的信息源。
RAG
以处理关于“最新科技趋势”的新闻摘要为例,RAG新闻摘要/报告生成的示例流程:
-
用户输入:用户向RAG系统请求一份关于“最新科技趋势”的新闻摘要。
-
理解需求:RAG系统解析用户输入,识别出用户的意图是获取关于最新科技趋势的新闻摘要。
-
准备检索条件:RAG系统根据用户请求,准备检索条件,如关键词“最新科技趋势”、时间范围(如最近一周)等。
-
执行检索:
-
RAG系统将这些检索条件输入到新闻检索API中。
-
检索API从新闻数据库中检索出与“最新科技趋势”相关的新闻文章。
-
这些文章被返回给RAG系统,作为生成摘要的候选材料。
- 信息筛选与融合:
-
RAG系统对检索到的新闻文章进行筛选,去除重复、不相关或质量不高的内容。
-
系统将筛选后的文章进行融合,提取关键信息点,如新技术名称、应用场景、影响等。
- 准备生成提示:
-
RAG系统基于筛选和融合后的信息,构建一个包含关键信息点的提示模版(Prompt)。
-
这个模版将作为生成模型的输入,指导模型生成新闻摘要。
- 生成摘要:
-
RAG系统将提示模版输入到生成模型中。
-
生成模型根据提示模版中的信息,结合自身的语言生成能力,生成新闻摘要。
-
生成的摘要既涵盖了关键信息点,又保持了语言的流畅性和易读性。
RAG
四、Fine-tuning(微调)
****什么是Fine-tuning?****Fine-Tuning是指使用特定领域的数据集对预训练的大型语言模型进行进一步训练的过程。通过微调,模型可以学习到特定领域的知识和模式,从而在相关任务上表现更好。
在预训练模型的基础上,针对特定任务或数据领域,通过在新任务的小规模标注数据集上进一步训练和调整模型的部分或全部参数,使模型能够更好地适应新任务,提高在新任务上的性能。
Fine-tuning
Fine-tuning在医疗和法律的应用场景中,能够显著提升LLM对专业术语和复杂情境的理解能力,从而辅助生成精确的专业建议、报告或解答。
-
在医疗领域,可以使用医疗领域的专业数据对LLM进行微调,以生成准确的医疗建议或诊断报告。
-
在法律领域,通过微调可以使LLM更好地理解法律术语和案例法,从而辅助法律文书的撰写或法律问题的解答。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

👉1.大模型入门学习思维导图👈
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
👉2.AGI大模型配套视频👈
很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。
👉3.大模型实际应用报告合集👈
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)
👉3.大模型落地应用案例PPT👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)
👉4.大模型面试题&答案👈
截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓
