LangChain教程——提示词模板

上篇文章学习了LangChain教程——LangChain的基本使用,这篇文章我们学习LangChain教程——提示词模板。

提示词模板

提示词模板提供了一种结构化的方式来构建和管理提示词,可以将用户输入的内容格式化后传递给语言模型,帮助模型理解上下文并生成相关且连贯的输出。

其格式为:

固定文本{变量}

通过使用模板将实际值替换这些变量,动态生成最终的提示词。

字符串提示词模板

PromptTemplate提示词模板用于创建简单的提示词,可以内嵌任意数量的变量,通过变量值格式化模板内容。

主要是为标准的文本生成任务设计的,用于生成非对话式的提示词,可以用于各种文本生成任务,例如文本撰写、摘要生成等。

其基础语法格式如下:

PromptTemplate.from_template(
 "固定文本{变量}"
)

# 或
PromptTemplate(
 input_variables=[变量1,...],
 input_types={变量数据类型},
 partial_variables={部分填充},   # 预先填充(部分填充)模板中的某些变量
 template="固定文本:{变量1,...}"
)

示例代码如下:

from langchain_core.prompts import PromptTemplate  # 引入字符串提示词模板

# 定义提示词模板
prompt_template = PromptTemplate.from_template(
    "给我介绍一下{content}是什么?"
)

# 通过变量content变量格式化提示词模板
prompt=prompt_template.format(content="langchain")
print(prompt)

运行结果为:

给我介绍一下langchain是什么?

聊天提示词模板

ChatPromptTemplate提示词模板用于构建聊天对话型应用提示词模板,为对话系统设计,用于生成对话式的提示词。

主要用于聊天机器人、对话模型等需要持续对话的场景。

其语法格式如下:

ChatPromptTemplate.from_messages([
 ("角色名","内容")
])

主要有三种角色:

  • system:用来给AI身份进行描述,我们可以设置该角色是什么,例如,人工智能助手,这样它就会把自己当作这样的角色来回答问题;

  • human:我们发给AI的消息;

  • ai:当前消息是AI回答的消息。

示例代码如下:

from langchain_core.prompts import ChatPromptTemplate  # 引入聊天提示词模板

# 定义提示词模板
prompt_template = ChatPromptTemplate.from_messages([
    ("system", "你是一位人工智能助手,你的名字是{name}"),
    ("human", "你好"),
    ("ai", "谢谢"),
    ("human", "{user_input}")
])
print(prompt_template.format_messages(name="白巧克力",user_input="你的名字叫什么"))

运行结果如下:

[SystemMessage(content='你是一位人工智能助手,你的名字是白巧克力', additional_kwargs={}, response_metadata={}), HumanMessage(content='你好', additional_kwargs={}, response_metadata={}), AIMessage(content='谢谢', additional_kwargs={}, response_metadata={}), HumanMessage(content='你的名字叫什么', additional_kwargs={}, response_metadata={})]

在运行结果发现,角色system、human、ai分别对应着SystemMessage、HumanMessage、AIMessage。

所以上面代码可以改为:

from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate  # 引入提示词模板
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage

# 定义提示词模板
prompt_template = ChatPromptTemplate.from_messages([
 # 使用系统提示词模板
    SystemMessagePromptTemplate.from_template("你是一位人工智能助手,你的名字是{name}"),
    HumanMessage(content="你好"),
    AIMessage(content="谢谢"),
    # 使用人工提示词模板
    HumanMessagePromptTemplate.from_template("{user_input}")
])
print(prompt_template.format_messages(name="白巧克力", user_input="你的名字叫什么"))

当然AI提示词模板也可以通过AIMessagePromptTemplate实现,这里就不编写了。

MessagesPlaceholder

MessagesPlaceholder提示模板可以在特定位置添加内容,其语法格式如下:

MessagesPlaceholder("变量")

示例代码如下:

from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate, \
    MessagesPlaceholder  
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage

# 定义提示词模板
prompt_template = ChatPromptTemplate.from_messages([
    SystemMessagePromptTemplate.from_template("你是一位人工智能助手,你的名字是{name}"),
    MessagesPlaceholder('msgs'),  # 使用MessagesPlaceholder插入其他角色传入的一组内容
    AIMessage(content="谢谢"),
    HumanMessagePromptTemplate.from_template("{user_input}")
])

print(prompt_template.invoke({"msgs":[HumanMessage(content="你好")],'name':"白巧克力", 'user_input':"你的名字叫什么"}))

运行结果如下:

[SystemMessage(content='你是一位人工智能助手,你的名字是白巧克力', additional_kwargs={}, response_metadata={}), HumanMessage(content='你好', additional_kwargs={}, response_metadata={}), AIMessage(content='谢谢', additional_kwargs={}, response_metadata={}), HumanMessage(content='你的名字叫什么', additional_kwargs={}, response_metadata={})]

少样本提示词模板

少样本提示词模板(FewShotPromptTemplate)是指使用一组少量的示例来让模型更好地理解用户意图,从而更好地回答或执行任务。

例如:

Q:什么是白巧克力?
A:白巧克力是一种零食。

Q:什么是sotnaldcnasfjsl
A:不知道

Q:什么是语言模型?
A:

通过示例告诉模型:Q是问题,A是答案,按这种格式进行问答交互。

其基础语法格式如下:

FewShotPromptTemplate(
    examples=示例,
    example_prompt=提示词模板,
    suffix="Question:{input}",  #  提示词模板最后追加的内容
    input_variables=['input']  #  定义suffix中包含的模板变量
)

示例代码如下:

from langchain_core.prompts import PromptTemplate, FewShotPromptTemplate
# 示例
examples = [
    {
        "question": "乾隆和曹操谁活得更久?",
        "answer": """
        这里是否需要跟进问题:是的。
        追问:乾隆去世时几岁?
        中间答案:乾隆去世时87岁。
        追问:曹操去世时几岁?
        中间答案:曹操去世时66岁。
        所以最终答案是:乾隆
        """,
    },
    {
        "question": "小米手机的创始人什么时候出生?",
        "answer": """
        这里是否需要跟进问题:是的。
        追问:小米手机的创始人是谁?
        中间答案:小米手机由雷军创立。
        跟进:雷军什么时候出生?
        中间答案:雷军出生于1969年12月16日。
        所以最终的答案是:1969年12月16日。
        """,
    },
    {
        "question": "乔治·华盛顿的外祖父是谁?",
        "answer": """
        这里是否需要跟进问题:是的。
        追问:乔治·华盛顿的母亲是谁?
        中间答案:乔治·华盛顿的母亲是玛丽·鲍尔·华盛顿。
        追问:玛丽·鲍尔·华盛顿的父亲是谁?
        中间答案:玛丽·鲍尔·华盛顿的父亲是约瑟夫·鲍尔
        """,
    }
]
# 提示词模板
example_prompt = PromptTemplate(
    input_variables=["question", "answer"], template="Question:{question}\n{answer}"
)
# 少样本提示词模板
prompt = FewShotPromptTemplate(
    examples=examples,   # 示例样本
    example_prompt=example_prompt, # 提示词模板
    suffix="Question:{input}",  # 提示词模板最后追加的内容
    input_variables=['input']  # 定义suffix中包含的模板变量
)
print(prompt.format(input="乔治·华盛顿的外祖父是谁?"))

运行结果为上面的示例examples。

示例选择器

在使用FewShotPromptTemplate时,把所有示例都提交给大模型,这显然是不合理的,而且调用大模型的token是有限制的。

这时我们可以通过示例选择器ExampleSelector中的SemanticSimilarityExampleSelector类来根据输入的相似性选择小样本示例,避免把所有示例都提交给大模型。

SemanticSimilarityExampleSelector使用了嵌入模型计算输入和小样本示例之间的相似性后,使用向量数据库执行相似搜索,获取与输入相似的示例。

这里我们使用了网络上的文本嵌入模型,获取方式在下面了,大家可以下载:

通过网盘分享的文件:ge-large-zh-v1.5
链接: https://pan.baidu.com/s/1NXsppUk6PjTASb43qno3KA?pwd=bqkl 提取码: bqkl

需要安装:

pip install chromadb
pip install sentence-transformers
pip install langchain_huggingface

其语法格式如下:

SemanticSimilarityExampleSelector.from_examples(
 # 可供选择的示例列表
 examples,
 # 生成嵌入的嵌入类,用于衡量语义相似性
 embeddings,
 # 存储嵌入和执行相似性搜索的VectorStore类
 Chroma,
 # 要生成示例数
 k=1
)

示例代码如下:

from langchain_huggingface import HuggingFaceEmbeddings
from langchain_community.vectorstores import Chroma
from langchain.prompts.example_selector import SemanticSimilarityExampleSelector

# 示例
examples = [
    {
        "question": "乾隆和曹操谁活得更久?",
        "answer": """
        这里是否需要跟进问题:是的。
        追问:乾隆去世时几岁?
        中间答案:乾隆去世时87岁。
        追问:曹操去世时几岁?
        中间答案:曹操去世时66岁。
        所以最终答案是:乾隆
        """,
    },
    {
        "question": "小米手机的创始人什么时候出生?",
        "answer": """
        这里是否需要跟进问题:是的。
        追问:小米手机的创始人是谁?
        中间答案:小米手机由雷军创立。
        跟进:雷军什么时候出生?
        中间答案:雷军出生于1969年12月16日。
        所以最终的答案是:1969年12月16日。
        """,
    },
    {
        "question": "乔治·华盛顿的外祖父是谁?",
        "answer": """
        这里是否需要跟进问题:是的。
        追问:乔治·华盛顿的母亲是谁?
        中间答案:乔治·华盛顿的母亲是玛丽·鲍尔·华盛顿。
        追问:玛丽·鲍尔·华盛顿的父亲是谁?
        中间答案:玛丽·鲍尔·华盛顿的父亲是约瑟夫·鲍尔
        """,
    }
]

# 模型
embeddings_path = "F:\model\ge-large-zh-v1.5"
# 加载、预训练模型生成文本嵌入类
embeddings = HuggingFaceEmbeddings(model_name=embeddings_path)

# 使用示例选择器
example_selector = SemanticSimilarityExampleSelector.from_examples(
    examples,
    embeddings,
    Chroma,
    k=1
)
question = '小米手机的创始人是谁'
selected_examples = example_selector.select_examples({"question": question})
print(f"最相似的示例:{question}")
for exmaple in selected_examples:
    print("\\n")
    for k,v in exmaple.items():
        print(f'{k}:{v}')

运行结果如下:

图片

这样就可以获取到最相似问题的示例。

接着就可以通过FewShotPromptTemplate将一组示例传递给模型,让模型更好地理解用户意图,从而更好地回答或执行任务。

示例代码如下:

from langchain_core.prompts import FewShotPromptTemplate, PromptTemplate

# 提示词模板
example_prompt = PromptTemplate(
    input_variables=["question", "answer"], template="Question:{question}\n{answer}"
)

# 少样本提示词模板
prompt = FewShotPromptTemplate(
    example_selector=example_selector,        # 示例样本
    example_prompt=example_prompt,  # 提示词模板
    suffix="Question:{input}",     # 提示词模板最后追加的内容
    input_variables=['input']      # 定义suffix中包含的模板变量
)

print(prompt.format(input="乔治·华盛顿的外祖父是谁?"))

好了,LangChain教程——提示词模板就讲到这里了,下一篇我们学习LangChain教程——输出解析器。

我们该怎样系统的去转行学习大模型 ?

很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

### 关于LangChain中的提示词工程 #### 什么是提示词工程? 提示词工程是一种通过精心设计输入文本的方式,引导大型语言模型(LLM)生成期望输出的技术。这种技术的核心在于构建高质量的提示词(Prompt),从而让模型能够理解上下文并给出符合需求的结果。 #### 如何使用LangChain进行提示词工程? LangChain是一个强大的工具库,它提供了多种方法来帮助开发者更高效地管理提示词。以下是几种常见的应用场景及其对应的实现方式: --- #### **1. 基础提示词模板** LangChain允许用户定义简单的提示词模板,用于标准化输入格式。以下是一个基础示例: ```python from langchain import PromptTemplate template = "问题:{question}\n回答:" prompt = PromptTemplate(input_variables=["question"], template=template) formatted_prompt = prompt.format(question="世界上最高的山是什么?") print(formatted_prompt) ``` 此代码创建了一个基本的提示词模板,并将其应用于具体问题[^1]。 --- #### **2. 少量示例提示词(Few-Shot Learning)** 当需要向模型展示一些示例以提高其推理能力时,可以使用`FewShotPromptTemplate`。这种方法通过提供少量已知问答对作为参考,使模型更好地理解和预测新问题的答案。 下面是一段基于固定示例集的代码示例: ```python from langchain.prompts.example_selectors.base import BaseExampleSelector from langchain.prompts.few_shot import FewShotPromptTemplate from langchain.prompts.prompt import PromptTemplate examples = [ {"input": "北京是中国的首都吗?", "output": "是的,北京是中国的首都。"}, {"input": "太阳为什么东升西落?", "output": "因为地球自西向东自转。"} ] example_template = """ 问题:{input} 回答:{output} """ example_prompt = PromptTemplate( input_variables=["input", "output"], template=example_template, ) few_shot_prompt = FewShotPromptTemplate( examples=examples, example_prompt=example_prompt, prefix="这是一个问答系统的训练数据。", suffix="现在轮到你了。\n问题:{new_input}", input_variables=["new_input"], example_separator="\n---\n", ) final_prompt = few_shot_prompt.format(new_input="水的沸点是多少度?") print(final_prompt) ``` 这段代码展示了如何设置固定的几组问答对,并将它们嵌入到最终的提示词中[^3]。 --- #### **3. 动态示例选择器** 如果希望根据当前查询动态调整所选示例,则可采用语义相似性选择器(SemanticSimilarityExampleSelector)。该功能会自动挑选最接近当前提问的相关实例。 下面是结合动态选择器的一个简单案例: ```python from langchain.prompts.example_selectors.semantic_similarity import SemanticSimilarityExampleSelector from langchain.vectorstores import FAISS from langchain.embeddings import OpenAIEmbeddings # 创建向量存储和嵌入函数 vectorstore = FAISS.from_texts([ex["input"] for ex in examples], embedding=OpenAIEmbeddings()) selector = SemanticSimilarityExampleSelector(vectorstore=vectorstore, k=1) dynamic_few_shot_prompt = FewShotPromptTemplate( example_selector=selector, example_prompt=example_prompt, prefix="这是从数据库中提取的最佳匹配样本。", suffix="尝试解决这个问题吧!\n问题:{query}", input_variables=["query"] ) generated_prompt = dynamic_few_shot_prompt.format(query="月球绕地球旋转的方向是什么?") print(generated_prompt) ``` 在此处,我们引入了FAISS矢量化索引来支持高效的近邻检索操作[^4]。 --- #### **4. 高级组合技巧** 为了进一步优化提示词效果,还可以考虑混合不同类型的模块或者调优参数配置。例如,在实际项目开发过程中可能涉及如下方面: - 调整前缀、后缀文字描述; - 自定义分隔符样式; - 控制每条记录的最大长度限制等。 更多细节请参阅官方文档链接[^2]。 --- ### 总结 以上介绍了四种常见场景下的LangChain提示词工程技术方案——从简易模板构造到复杂动态筛选机制均有覆盖。无论是初学者还是资深工程师都能从中找到适合自己需求的内容。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值