上篇文章学习了LangChain教程——LangChain的基本使用,这篇文章我们学习LangChain教程——提示词模板。
提示词模板
提示词模板提供了一种结构化的方式来构建和管理提示词,可以将用户输入的内容格式化后传递给语言模型,帮助模型理解上下文并生成相关且连贯的输出。
其格式为:
固定文本{变量}
通过使用模板将实际值替换这些变量,动态生成最终的提示词。
字符串提示词模板
PromptTemplate提示词模板用于创建简单的提示词,可以内嵌任意数量的变量,通过变量值格式化模板内容。
主要是为标准的文本生成任务设计的,用于生成非对话式的提示词,可以用于各种文本生成任务,例如文本撰写、摘要生成等。
其基础语法格式如下:
PromptTemplate.from_template(
"固定文本{变量}"
)
# 或
PromptTemplate(
input_variables=[变量1,...],
input_types={变量数据类型},
partial_variables={部分填充}, # 预先填充(部分填充)模板中的某些变量
template="固定文本:{变量1,...}"
)
示例代码如下:
from langchain_core.prompts import PromptTemplate # 引入字符串提示词模板
# 定义提示词模板
prompt_template = PromptTemplate.from_template(
"给我介绍一下{content}是什么?"
)
# 通过变量content变量格式化提示词模板
prompt=prompt_template.format(content="langchain")
print(prompt)
运行结果为:
给我介绍一下langchain是什么?
聊天提示词模板
ChatPromptTemplate提示词模板用于构建聊天对话型应用提示词模板,为对话系统设计,用于生成对话式的提示词。
主要用于聊天机器人、对话模型等需要持续对话的场景。
其语法格式如下:
ChatPromptTemplate.from_messages([
("角色名","内容")
])
主要有三种角色:
-
system:用来给AI身份进行描述,我们可以设置该角色是什么,例如,人工智能助手,这样它就会把自己当作这样的角色来回答问题;
-
human:我们发给AI的消息;
-
ai:当前消息是AI回答的消息。
示例代码如下:
from langchain_core.prompts import ChatPromptTemplate # 引入聊天提示词模板
# 定义提示词模板
prompt_template = ChatPromptTemplate.from_messages([
("system", "你是一位人工智能助手,你的名字是{name}"),
("human", "你好"),
("ai", "谢谢"),
("human", "{user_input}")
])
print(prompt_template.format_messages(name="白巧克力",user_input="你的名字叫什么"))
运行结果如下:
[SystemMessage(content='你是一位人工智能助手,你的名字是白巧克力', additional_kwargs={}, response_metadata={}), HumanMessage(content='你好', additional_kwargs={}, response_metadata={}), AIMessage(content='谢谢', additional_kwargs={}, response_metadata={}), HumanMessage(content='你的名字叫什么', additional_kwargs={}, response_metadata={})]
在运行结果发现,角色system、human、ai分别对应着SystemMessage、HumanMessage、AIMessage。
所以上面代码可以改为:
from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate # 引入提示词模板
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
# 定义提示词模板
prompt_template = ChatPromptTemplate.from_messages([
# 使用系统提示词模板
SystemMessagePromptTemplate.from_template("你是一位人工智能助手,你的名字是{name}"),
HumanMessage(content="你好"),
AIMessage(content="谢谢"),
# 使用人工提示词模板
HumanMessagePromptTemplate.from_template("{user_input}")
])
print(prompt_template.format_messages(name="白巧克力", user_input="你的名字叫什么"))
当然AI提示词模板也可以通过AIMessagePromptTemplate实现,这里就不编写了。
MessagesPlaceholder
MessagesPlaceholder提示模板可以在特定位置添加内容,其语法格式如下:
MessagesPlaceholder("变量")
示例代码如下:
from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate, \
MessagesPlaceholder
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
# 定义提示词模板
prompt_template = ChatPromptTemplate.from_messages([
SystemMessagePromptTemplate.from_template("你是一位人工智能助手,你的名字是{name}"),
MessagesPlaceholder('msgs'), # 使用MessagesPlaceholder插入其他角色传入的一组内容
AIMessage(content="谢谢"),
HumanMessagePromptTemplate.from_template("{user_input}")
])
print(prompt_template.invoke({"msgs":[HumanMessage(content="你好")],'name':"白巧克力", 'user_input':"你的名字叫什么"}))
运行结果如下:
[SystemMessage(content='你是一位人工智能助手,你的名字是白巧克力', additional_kwargs={}, response_metadata={}), HumanMessage(content='你好', additional_kwargs={}, response_metadata={}), AIMessage(content='谢谢', additional_kwargs={}, response_metadata={}), HumanMessage(content='你的名字叫什么', additional_kwargs={}, response_metadata={})]
少样本提示词模板
少样本提示词模板(FewShotPromptTemplate)是指使用一组少量的示例来让模型更好地理解用户意图,从而更好地回答或执行任务。
例如:
Q:什么是白巧克力?
A:白巧克力是一种零食。
Q:什么是sotnaldcnasfjsl
A:不知道
Q:什么是语言模型?
A:
通过示例告诉模型:Q是问题,A是答案,按这种格式进行问答交互。
其基础语法格式如下:
FewShotPromptTemplate(
examples=示例,
example_prompt=提示词模板,
suffix="Question:{input}", # 提示词模板最后追加的内容
input_variables=['input'] # 定义suffix中包含的模板变量
)
示例代码如下:
from langchain_core.prompts import PromptTemplate, FewShotPromptTemplate
# 示例
examples = [
{
"question": "乾隆和曹操谁活得更久?",
"answer": """
这里是否需要跟进问题:是的。
追问:乾隆去世时几岁?
中间答案:乾隆去世时87岁。
追问:曹操去世时几岁?
中间答案:曹操去世时66岁。
所以最终答案是:乾隆
""",
},
{
"question": "小米手机的创始人什么时候出生?",
"answer": """
这里是否需要跟进问题:是的。
追问:小米手机的创始人是谁?
中间答案:小米手机由雷军创立。
跟进:雷军什么时候出生?
中间答案:雷军出生于1969年12月16日。
所以最终的答案是:1969年12月16日。
""",
},
{
"question": "乔治·华盛顿的外祖父是谁?",
"answer": """
这里是否需要跟进问题:是的。
追问:乔治·华盛顿的母亲是谁?
中间答案:乔治·华盛顿的母亲是玛丽·鲍尔·华盛顿。
追问:玛丽·鲍尔·华盛顿的父亲是谁?
中间答案:玛丽·鲍尔·华盛顿的父亲是约瑟夫·鲍尔
""",
}
]
# 提示词模板
example_prompt = PromptTemplate(
input_variables=["question", "answer"], template="Question:{question}\n{answer}"
)
# 少样本提示词模板
prompt = FewShotPromptTemplate(
examples=examples, # 示例样本
example_prompt=example_prompt, # 提示词模板
suffix="Question:{input}", # 提示词模板最后追加的内容
input_variables=['input'] # 定义suffix中包含的模板变量
)
print(prompt.format(input="乔治·华盛顿的外祖父是谁?"))
运行结果为上面的示例examples。
示例选择器
在使用FewShotPromptTemplate时,把所有示例都提交给大模型,这显然是不合理的,而且调用大模型的token是有限制的。
这时我们可以通过示例选择器ExampleSelector中的SemanticSimilarityExampleSelector类来根据输入的相似性选择小样本示例,避免把所有示例都提交给大模型。
SemanticSimilarityExampleSelector使用了嵌入模型计算输入和小样本示例之间的相似性后,使用向量数据库执行相似搜索,获取与输入相似的示例。
这里我们使用了网络上的文本嵌入模型,获取方式在下面了,大家可以下载:
通过网盘分享的文件:ge-large-zh-v1.5
链接: https://pan.baidu.com/s/1NXsppUk6PjTASb43qno3KA?pwd=bqkl 提取码: bqkl
需要安装:
pip install chromadb
pip install sentence-transformers
pip install langchain_huggingface
其语法格式如下:
SemanticSimilarityExampleSelector.from_examples(
# 可供选择的示例列表
examples,
# 生成嵌入的嵌入类,用于衡量语义相似性
embeddings,
# 存储嵌入和执行相似性搜索的VectorStore类
Chroma,
# 要生成示例数
k=1
)
示例代码如下:
from langchain_huggingface import HuggingFaceEmbeddings
from langchain_community.vectorstores import Chroma
from langchain.prompts.example_selector import SemanticSimilarityExampleSelector
# 示例
examples = [
{
"question": "乾隆和曹操谁活得更久?",
"answer": """
这里是否需要跟进问题:是的。
追问:乾隆去世时几岁?
中间答案:乾隆去世时87岁。
追问:曹操去世时几岁?
中间答案:曹操去世时66岁。
所以最终答案是:乾隆
""",
},
{
"question": "小米手机的创始人什么时候出生?",
"answer": """
这里是否需要跟进问题:是的。
追问:小米手机的创始人是谁?
中间答案:小米手机由雷军创立。
跟进:雷军什么时候出生?
中间答案:雷军出生于1969年12月16日。
所以最终的答案是:1969年12月16日。
""",
},
{
"question": "乔治·华盛顿的外祖父是谁?",
"answer": """
这里是否需要跟进问题:是的。
追问:乔治·华盛顿的母亲是谁?
中间答案:乔治·华盛顿的母亲是玛丽·鲍尔·华盛顿。
追问:玛丽·鲍尔·华盛顿的父亲是谁?
中间答案:玛丽·鲍尔·华盛顿的父亲是约瑟夫·鲍尔
""",
}
]
# 模型
embeddings_path = "F:\model\ge-large-zh-v1.5"
# 加载、预训练模型生成文本嵌入类
embeddings = HuggingFaceEmbeddings(model_name=embeddings_path)
# 使用示例选择器
example_selector = SemanticSimilarityExampleSelector.from_examples(
examples,
embeddings,
Chroma,
k=1
)
question = '小米手机的创始人是谁'
selected_examples = example_selector.select_examples({"question": question})
print(f"最相似的示例:{question}")
for exmaple in selected_examples:
print("\\n")
for k,v in exmaple.items():
print(f'{k}:{v}')
运行结果如下:
这样就可以获取到最相似问题的示例。
接着就可以通过FewShotPromptTemplate将一组示例传递给模型,让模型更好地理解用户意图,从而更好地回答或执行任务。
示例代码如下:
from langchain_core.prompts import FewShotPromptTemplate, PromptTemplate
# 提示词模板
example_prompt = PromptTemplate(
input_variables=["question", "answer"], template="Question:{question}\n{answer}"
)
# 少样本提示词模板
prompt = FewShotPromptTemplate(
example_selector=example_selector, # 示例样本
example_prompt=example_prompt, # 提示词模板
suffix="Question:{input}", # 提示词模板最后追加的内容
input_variables=['input'] # 定义suffix中包含的模板变量
)
print(prompt.format(input="乔治·华盛顿的外祖父是谁?"))
好了,LangChain教程——提示词模板就讲到这里了,下一篇我们学习LangChain教程——输出解析器。
我们该怎样系统的去转行学习大模型 ?
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源已经整理打包
,有需要的小伙伴可以微信扫描下方二维码
,免费领取