零基础学AI大模型之解析器PydanticOutputParser

大家好,我是工藤学编程 🦉一个正在努力学习的小博主,期待你的关注
实战代码系列最新文章😉C++实现图书管理系统(Qt C++ GUI界面版)
SpringBoot实战系列🐷【SpringBoot实战系列】SpringBoot3.X 整合 MinIO 存储原生方案
分库分表分库分表之实战-sharding-JDBC分库分表执行流程原理剖析
消息队列深入浅出 RabbitMQ-RabbitMQ消息确认机制(ACK)
AI大模型零基础学AI大模型之LangChain Output Parser

前情摘要:
1、零基础学AI大模型之读懂AI大模型
2、零基础学AI大模型之从0到1调用大模型API
3、零基础学AI大模型之SpringAI
4、零基础学AI大模型之AI大模型常见概念
5、零基础学AI大模型之大模型私有化部署全指南
6、零基础学AI大模型之AI大模型可视化界面
7、零基础学AI大模型之LangChain
8、零基础学AI大模型之LangChain六大核心模块与大模型IO交互链路
9、零基础学AI大模型之Prompt提示词工程
10、零基础学AI大模型之LangChain-PromptTemplate
11、零基础学AI大模型之ChatModel聊天模型与ChatPromptTemplate实战
12、零基础学AI大模型之LangChain链
13、零基础学AI大模型之Stream流式输出实战
14、零基础学AI大模型之LangChain Output Parser


一、为什么需要Pydantic解析器?

在大模型应用开发中,我们经常需要将模型输出的非结构化文本转换为程序可以直接处理的数据结构。这个过程如果手动实现,不仅繁琐易错,还难以保证数据的有效性。

Pydantic解析器主要解决以下几个核心问题:

  1. 结构化输出:将非结构化文本转为可编程对象,省去手动解析的麻烦
  2. 数据验证:自动验证字段类型和约束条件,单纯JSON解析器则不会校验
  3. 开发效率:减少手动解析代码,让开发者专注于业务逻辑
  4. 错误处理:内置异常捕获与修复机制,提高程序健壮性

想象一下,如果没有结构化解析,我们可能需要写大量的正则表达式或字符串处理代码来提取关键信息,还要手动进行类型转换和验证,这不仅效率低下,而且容易出错。

二、PydanticOutputParser实战案例

环境准备

首先确保安装了必要的库:

pip install langchain langchain-openai pydantic

本文将使用本地部署的deepseek-r1:7b模型进行演示,模型部署可以参考我之前的文章《零基础学AI大模型之大模型私有化部署全指南》。

案例一:大模型信息输出提取

这个案例展示如何使用PydanticOutputParser结合Pydantic模型来提取和验证用户信息。

from langchain_openai import ChatOpenAI
from pydantic import BaseModel, Field  
from langchain_core.output_parsers import PydanticOutputParser  

# 定义本地模型
model = ChatOpenAI(
    model_name="deepseek-r1:7b",
    base_url="http://127.0.0.1:11434/v1",
    api_key="none",  # 本地模型通常不需要API密钥
    temperature=0.3  # 降低随机性,使输出更稳定
)

# Step1: 定义Pydantic模型  
class UserInfo(BaseModel):  
    name: str = Field(description="用户姓名")  
    age: int = Field(description="用户年龄", gt=0)  # gt=0表示年龄必须大于0
    hobbies: list[str] = Field(description="兴趣爱好列表")  

# Step2: 创建解析器  
parser = PydanticOutputParser(pydantic_object=UserInfo)  

# Step3: 构建提示模板  
from langchain_core.prompts import ChatPromptTemplate  

prompt = ChatPromptTemplate.from_template("""  
提取用户信息,严格按照格式要求输出,不要添加任何额外内容:  
{format_instructions}  
输入内容:  
{input}  
""")  

# 注入格式指令  
prompt = prompt.partial(  
    format_instructions=parser.get_format_instructions()  
)  

# Step4: 组合处理链  
chain = prompt | model | parser  

# 执行解析  
try:
    result = chain.invoke({  
        "input": """  
我的名称是张三,年龄是18岁,兴趣爱好有打篮球、看电影。  
        """  
    })  
    print(f"结果类型: {type(result)}") 
    print(f"姓名: {result.name}")
    print(f"年龄: {result.age}")
    print(f"兴趣爱好: {result.hobbies}")
except Exception as e:
    print(f"解析出错: {e}")

代码解析:
  1. 模型定义:我们定义了一个UserInfo的Pydantic模型,包含name(字符串)、age(整数,且必须大于0)和hobbies(字符串列表)三个字段。

  2. 解析器创建:通过PydanticOutputParser创建解析器,并将我们定义的UserInfo模型传入。

  3. 提示模板:构建提示模板时,我们通过parser.get_format_instructions()获取格式说明,并将其注入到提示中,告诉模型应该如何输出。

  4. 处理链:使用LangChain的链(Chain)将提示、模型和解析器组合起来,形成一个完整的处理流程。

  5. 执行与结果:调用invoke方法执行处理链,得到的结果是一个UserInfo对象,我们可以直接通过属性访问其中的数据。

如果模型输出不符合UserInfo模型的定义(例如年龄为负数),解析器会自动抛出异常,这就是Pydantic的数据验证功能在起作用。

输出
结果类型: <class ‘main.UserInfo’>
姓名: 张三
年龄: 18
兴趣爱好: [‘打篮球’, ‘看电影’]

在这里插入图片描述

案例二:电商评论情感分析系统

这个案例展示如何结合JsonOutputParser和Pydantic模型进行电商评论的情感分析。

from langchain_openai import ChatOpenAI
from pydantic import BaseModel, Field 
from langchain_core.prompts import ChatPromptTemplate  
from langchain_core.output_parsers import JsonOutputParser   
import json

# 定义本地模型
model = ChatOpenAI(
    model_name="deepseek-r1:7b",
    base_url="http://127.0.0.1:11434/v1",
    api_key="none",
    temperature=0.3
)

# 定义JSON结构对应的Pydantic模型  
class SentimentResult(BaseModel):  
    sentiment: str = Field(description="情感倾向,只能是positive、negative或neutral")  
    confidence: float = Field(description="情感分析的置信度,0到1之间的浮点数")  
    keywords: list[str] = Field(description="评论中的关键词列表")  

# 构建处理链  
parser = JsonOutputParser(pydantic_object=SentimentResult)  

prompt = ChatPromptTemplate.from_template("""  
分析以下评论的情感倾向,确定情感是positive(正面)、negative(负面)还是neutral(中性),
计算情感分析的置信度(0到1之间),并提取评论中的关键词。
{input}  
按照以下格式要求返回结果,不要添加任何额外内容:  
{format_instructions}  
""").partial(format_instructions=parser.get_format_instructions())  

chain = prompt | model | parser  

# 执行分析  
try:
    result = chain.invoke({"input": "物流很慢,包装破损严重,再也不会买了"})  
    print(f"情感倾向: {result['sentiment']}")
    print(f"置信度: {result['confidence']}")
    print(f"关键词: {result['keywords']}")
    
    # 验证结果类型
    print(f"\n情感类型验证: {isinstance(result['sentiment'], str)}")
    print(f"置信度类型验证: {isinstance(result['confidence'], float)}")
    print(f"关键词类型验证: {isinstance(result['keywords'], list)}")
except Exception as e:
    print(f"解析出错: {e}")

# 流式调用示例
print("\n===== 流式调用 =====")
try:
    for chunk in chain.stream({"input": "商品质量不错,价格合理,但物流有点慢"}):
        if chunk:  # 过滤空块
            print(f"收到 chunk: {json.dumps(chunk, ensure_ascii=False)}")
except Exception as e:
    print(f"流式解析出错: {e}")

代码解析:
  1. 模型定义:我们定义了SentimentResult模型,用于存储情感分析结果,包括情感倾向、置信度和关键词。

  2. 解析器选择:这里使用了JsonOutputParser,并通过pydantic_object参数指定了对应的Pydantic模型,这样既可以得到JSON格式的输出,又能进行数据验证。

  3. 提示设计:提示中明确要求模型分析情感倾向、计算置信度并提取关键词,使模型输出更符合我们的需求。

  4. 流式调用JsonOutputParser支持流式处理,可以逐步接收和处理模型的输出,这在需要实时展示结果的场景中非常有用。

输出
情感倾向: negative
置信度: 0.85
关键词: [‘物流’, ‘包装破损’, ‘购买’]
情感类型验证: True
置信度类型验证: True
关键词类型验证: True
===== 流式调用 =====
收到 chunk: {“sentiment”: “”}
收到 chunk: {“sentiment”: “neutral”}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格合理”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格合理”, “”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格合理”, “物流”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格合理”, “物流”, “”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格合理”, “物流”, “有点”]}
收到 chunk: {“sentiment”: “neutral”, “confidence”: 0.6, “keywords”: [“商品质量”, “不错”, “价格合理”, “物流”, “有点慢”]}

在这里插入图片描述

三、PydanticOutputParser vs JsonOutputParser

特性PydanticOutputParserJsonOutputParser
输出类型Pydantic模型对象字典(dict)
数据验证强验证,支持复杂约束基础验证,主要检查JSON格式
类型转换自动转换为指定类型保持JSON原生类型
流式处理不支持支持
使用场景需严格验证数据结构的场景需灵活处理或流式输出的场景
易用性可通过属性访问数据需通过键访问数据

在实际开发中,选择哪种解析器取决于具体需求:

  • 如果需要严格的数据验证和类型转换,选择PydanticOutputParser
  • 如果需要处理流式输出或更灵活的数据结构,选择JsonOutputParser
  • 新版LangChain中,JsonOutputParser也可以通过pydantic_object参数获得类似Pydantic的验证能力

四、常见问题与解决方案

  1. 解析失败

    • 检查提示模板是否清晰,是否正确注入了格式说明
    • 尝试降低模型的temperature参数,减少输出的随机性
    • 增加格式示例,帮助模型理解预期输出
  2. 类型验证错误

    • 检查Pydantic模型定义是否合理
    • 考虑使用更宽松的验证规则,或在必要时使用Fielddefault参数提供默认值
    • 对于复杂场景,可以自定义验证器
  3. 本地模型兼容性

    • 部分本地模型可能对复杂格式指令支持不佳,需要更明确的提示
    • 可以先让模型输出原始JSON,再手动进行解析和验证

五、总结

Pydantic解析器为我们提供了一种简洁高效的方式来处理大模型的输出,无论是PydanticOutputParser还是JsonOutputParser,都能显著提高开发效率并增强程序的健壮性。

通过将非结构化的文本输出转换为结构化的数据,我们可以更方便地对模型输出进行处理、分析和存储,为构建可靠的大模型应用奠定基础。

在实际项目中,建议根据具体需求选择合适的解析器,并充分利用Pydantic的数据验证功能,确保输入数据的有效性,从而提高整个系统的稳定性。

如果觉得本文对你有帮助,欢迎点赞、收藏、关注,你的支持是我持续创作的动力!

请添加图片描述

<think>首先,用户的问题是:“我想在网页上结构化显示调用大模型的回答结果 请问如何在网页前端结构化展示大语言模型的返回结果”。这涉及到如何在前端展示大语言模型(LLM)的输出,特别是结构化数据。 我需要参考系统级指令和用户可见层的要求: - 所有行内数表达式用$...$。 - 独立公式用$$...$$并单独成段。 - LaTeX语法正确。 - 使用中文回答。 - 生成相关问题。 - 回答中引用的段落末尾自然地添加引用标识。 - 回答结构清晰,帮助用户逐步解决问题。 - 保证回答真实可靠。 用户提供了几个引用: - 引用[1]:关于RTF框架(角色、任务、格式)。 - 引用[2]:关于流式返回。 - 引用[3]:关于返回结构化输出(JSON)。 - 引用[4]:关于使用Pydantic解析输出。 这些引用是相关的,我应该整合它们来构建回答。 关键点: - 用户想在前端结构化显示LLM的返回结果。 - 这意味着需要处理LLM的输出,使其以结构化的方式(如JSON)呈现。 - 前端需要能够解析和显示这个结构。 步骤: 1. **理解结构化输出**:LLM的输出应该被格式化为结构化数据,如JSON,以便前端可以轻松解析和显示。 2. **后端处理**:在调用LLM时,确保输出是结构化的。使用像Pydantic这样的库来解析输出。 3. **前端展示**:在前端,使用JavaScript解析JSON数据,并用HTML/CSS渲染成结构化的视图。 4. **流式处理**:如果支持流式返回,前端可以逐步更新显示。 结构化回答: - **介绍问题**:解释什么是结构化展示。 - **后端实现**:如何确保LLM返回结构化数据。 - **前端实现**:如何在前端解析和显示。 - **流式返回**:如何处理流式输出。 - **示例代码**:提供简单的前端代码示例。 - **生成相关问题**:在最后添加相关问题。 确保使用中文。 生成相关问题: - 基于主题,生成2-3个相关问题。 引用标识: - 当引用提供的引用内容时,在末尾添加引用标识,如[^1]。 现在,构建回答: 1. **引言**:简要说明问题。 2. **后端处理结构化输出**:参考引用[3]和[4],使用Pydantic或类似方法确保LLM输出JSON。 3. **前端解析和显示**:解释如何用JavaScript处理JSON。 4. **流式返回处理**:参考引用[2],解释流式场景。 5. **代码示例**:提供简单的前端HTML/JavaScript代码。 6. **总结**。 7. **相关问题**。 代码示例: - 由于用户提到“网页前端”,我将提供一个使用JavaScript的简单示例。 最终输出格式: - 使用Markdown,包括代码块。 - 独立公式用$$...$$,但这个问题可能没有数公式,所以可能不需要。 - 行内如果有变量,用$...$,如$JSON$。 相关问题想法: 1. 如何优化大语言模型返回的数据结构? 2. 前端如何处理流式返回的数据? 3. 有哪些常见的前端库用于展示结构化数据?</think>### 在网页前端结构化展示大语言模型返回结果的解决方案 当您在网页上调用大语言模型(LLM)时,返回结果通常是非结构化的文本或数据流。为了在前端实现结构化展示(如表格、卡片或树状视图),需要确保后端返回的数据是结构化的(如 JSON 格式),然后前端通过 JavaScript 解析并渲染。以下我将逐步解释实现方法,结合关键技术和代码示例,确保方案可靠且易于集成。 #### 1. **理解结构化展示的核心需求** - **结构化数据**:指数据以键值对、数组或嵌套对象的形式组织(如 JSON),便于前端解析和可视化。例如,LLM 的输出应被转换为类似 `{ "title": "摘要", "content": "文本内容" }` 的格式。 - **为什么需要结构化**:非结构化文本(如纯文本响应)在前端难以直接渲染为表格、列表等组件。结构化数据能提升用户体验,支持动态更新和交互[^3]。 - **关键挑战**: - 后端确保 LLM 输出严格结构化(避免模型返回自由文本)。 - 前端高效解析数据流(尤其支持流式返回)。 - 处理解析错误(如 JSON 格式无效)。 #### 2. **后端处理:确保 LLM 返回结构化数据** 在调用 LLM 时,后端需强制模型输出 JSON 或其他结构化格式。参考引用[3]和[4],推荐使用 **Pydantic** 库(Python)来定义数据模型和解析输出。Pydantic 能自动校验和转换 LLM 的响应,减少格式错误风险。 **步骤**: - **定义 Pydantic 模型**:指定输出字段和类型,确保模型严格遵循。 - **构造 Prompt**:在请求中添加格式指令,强制 LLM 生成 JSON。 - **解析输出**:使用 Pydantic 解析器处理响应。 **示例代码(Python 后端)**: 以下代码基于引用[4],展示如何调用 LLM 并返回结构化 JSON。假设使用类似 OpenAI 的 API。 ```python from pydantic import BaseModel, Field from langchain.output_parsers import PydanticOutputParser from langchain.prompts import PromptTemplate from langchain_community.chat_models import ChatOpenAI # 定义 Pydantic 数据模型 (例如,摘要生成场景) class Summary(BaseModel): title: str = Field(description="标题") summary: str = Field(description="摘要内容") keywords: list[str] = Field(description="关键词列表") # 创建解析器 parser = PydanticOutputParser(pydantic_object=Summary) format_instructions = parser.get_format_instructions() # 构造 Prompt,强制模型输出 JSON template = """ 请根据以下文本生成严格 JSON 格式的输出,不要使用 Markdown 代码块包裹! 格式要求:{format_instructions} 文本:{text} """ prompt = PromptTemplate( template=template, input_variables=["text"], partial_variables={"format_instructions": format_instructions} ) # 调用 LLM 模型(例如 qwen2.5-14b-instruct) llm = ChatOpenAI(model="qwen2.5-14b-instruct", temperature=0.2) chain = prompt | llm | parser # 链式处理:Prompt -> LLM -> 解析器 # 示例调用 text_input = "这是测试文本,介绍结构化展示的重要性。" try: result = chain.invoke({"text": text_input}) # 返回 JSON 数据,例如:{"title": "结构化展示", "summary": "...", "keywords": ["前端", "JSON"]} json_output = result.json() return json_output # 后端将此 JSON 发送给前端 except Exception as e: print(f"解析失败:{e}") return {"error": "格式错误"} ``` **优点**: - Pydantic 自动校验字段,确保输出一致性(如字段类型和必填项)[^4]。 - 通过 Prompt 工程,减少模型自由发挥的风险(引用 RTF 框架的 T-Task 部分:明确指定任务格式)[^1]。 #### 3. **前端处理:解析和渲染结构化数据** 前端使用 JavaScript 接收后端返回的 JSON 数据(或流式数据块),解析后渲染为 HTML 组件。核心是: - **非流式场景**:一次性接收完整 JSON,用 `JSON.parse()` 解析。 - **流式场景**:逐步接收数据块(如 SSE 或 WebSocket),动态更新 UI(参考引用[2])。 - **渲染库**:推荐使用 Vue.js、React 或原生 JavaScript 操作 DOM。 **示例代码(前端 HTML/JavaScript)**: 以下是一个简单实现,展示如何用原生 JavaScript 解析 JSON 并渲染为表格。假设后端 API 返回 JSON 数据。 ```html <!DOCTYPE html> <html lang="zh-CN"> <head> <meta charset="UTF-8"> <title>LLM 结构化展示</title> <style> table { border-collapse: collapse; width: 100%; } th, td { border: 1px solid #ddd; padding: 8px; text-align: left; } </style> </head> <body> <h1>大模型结果展示</h1> <div id="result-container"></div> <script> // 模拟调用后端 API(实际中替换为您的 API 端点) async function fetchData() { try { const response = await fetch('your-backend-api-url'); const data = await response.json(); // 解析 JSON renderStructuredData(data); } catch (error) { console.error("获取数据失败:", error); document.getElementById("result-container").innerHTML = "<p>错误:数据格式无效</p>"; } } // 渲染结构化数据为表格 function renderStructuredData(data) { const container = document.getElementById("result-container"); // 检查是否为错误响应 if (data.error) { container.innerHTML = `<p>错误:${data.error}</p>`; return; } // 创建表格(基于 JSON 键动态生成) let html = `<table><tr><th>字段</th><th>值</th></tr>`; for (const [key, value] of Object.entries(data)) { // 处理数组或嵌套对象 const displayValue = Array.isArray(value) ? value.join(", ") : JSON.stringify(value); html += `<tr><td>${key}</td><td>${displayValue}</td></tr>`; } html += "</table>"; container.innerHTML = html; } // 页面加载时调用 window.onload = fetchData; </script> </body> </html> ``` **流式返回处理(进阶)**: 如果后端支持流式传输(如引用[2]所述),前端可使用 **Server-Sent Events (SSE)** 逐步接收数据: ```javascript // 添加 SSE 处理(在 fetchData 函数中替换) const eventSource = new EventSource('your-stream-api-url'); eventSource.onmessage = (event) => { const dataChunk = JSON.parse(event.data); // 解析每个数据块 updateUI(dataChunk); // 动态更新页面元素 }; eventSource.onerror = () => { console.error("流式连接错误"); }; ``` - **优点**:用户即时看到部分结果,提升响应速度(例如,逐个 token 显示)[^2]。 - **库推荐**:使用 Axios 或 WebSocket 库简化实现。 #### 4. **最佳实践和注意事项** - **测试与错误处理**: - 后端添加 try-catch 块捕获解析错误(如引用[4]的示例)。 - 前端验证 JSON 有效性(使用 `JSON.parse()` 包裹在 try-catch 中)。 - **性能优化**: - 流式返回减少延迟(引用[2])。 - 前端使用虚拟滚动(如 React-Window)处理大数据集。 - **安全**: - 防止 XSS 攻击:对前端渲染的数据进行转义(例如,用 `textContent` 替代 `innerHTML`)。 - 使用 HTTPS 保护数据传输。 - **可扩展性**: - 结合 RTF 框架(引用[1]),定义清晰的 **R-Role**(如“数据生成器”)和 **F-Format**(如 JSON 架构),确保任务一致性。 - 对于复杂数据,使用前端框架(如 React 的组件状态管理)。 #### 5. **总结** 在网页前端结构化展示 LLM 返回结果的核心是:后端确保输出为严格 JSON(通过 Pydantic 等工具),前端用 JavaScript 解析并渲染为可视化组件。支持流式返回能进一步提升用户体验。此方案基于实际引用和最佳实践,可靠且易于实现。如果您有具体 API 或框架细节,我可以进一步优化示例。
评论 35
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

工藤学编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值