从LLMChain迁移到LCEL:实现更清晰的AI交互

部署运行你感兴趣的模型镜像

在构建AI应用时,选择适合的工具和框架至关重要。LLMChain曾是开发AI生成对话的常用选择,但随着需求的变化,LCEL提供了一种更灵活且易于使用的方式。本文将介绍如何从LLMChain迁移到LCEL,并通过代码演示其应用。

技术背景介绍

LLMChain是一个集成了提示模板(Prompt Template)、大型语言模型(LLM)和输出解析器的类,方便开发者快速搭建AI对话系统。然而,它的一些局限性,比如默认的输出解析器和有限的流处理能力,促使开发者考虑更现代更灵活的解决方案——LCEL。

核心原理解析

LCEL通过将提示模板、LLM和输出解析器分离成独立的模块,不仅提供了更大的灵活性,还简化了流处理,允许直接访问原始消息输出。这种模块化设计提高了代码的可读性和可维护性。

代码实现演示

我们将从传统的LLMChain实现开始,然后展示如何迁移到LCEL。

使用LLMChain

from langchain.chains import LLMChain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

prompt = ChatPromptTemplate.from_messages(
    [("user", "Tell me a {adjective} joke")],
)

chain = LLMChain(llm=ChatOpenAI(), prompt=prompt)

result = chain({"adjective": "funny"})
print(result)

输出:

{
 "adjective": "funny",
 "text": "Why couldn't the bicycle stand up by itself?\n\nBecause it was two tired!"
}

使用LCEL

LCEL将提示和解析器独立出来,使得调用和结果处理更为灵活。

from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

prompt = ChatPromptTemplate.from_messages(
    [("user", "Tell me a {adjective} joke")],
)

chain = prompt | ChatOpenAI() | StrOutputParser()

result = chain.invoke({"adjective": "funny"})
print(result)

输出:

'Why was the math book sad?\n\nBecause it had too many problems.'

保留输入输出

如果需要像LLMChain一样同时输出输入和结果,可以使用RunnablePassthrough

from langchain_core.runnables import RunnablePassthrough

outer_chain = RunnablePassthrough().assign(text=chain)

result = outer_chain.invoke({"adjective": "funny"})
print(result)

输出:

{
 "adjective": "funny",
 "text": "Why did the scarecrow win an award? Because he was outstanding in his field!"
}

应用场景分析

LCEL的模块化设计特别适合需要灵活调整组件的复杂AI系统,如多轮对话机器人、智能客服系统等。这种设计允许开发者随时更换任意一个模块,而不需对整个系统进行大规模重构。

实践建议

  1. 灵活使用模块:根据需求选择合适的输出解析器与提示模板。
  2. 增强代码可读性:利用LCEL的管道风格,保持代码简洁和直观。
  3. 扩展性:可以方便地通过增加自定义组件来扩展功能。

如果遇到问题欢迎在评论区交流。

—END—

您可能感兴趣的与本文相关的镜像

ComfyUI

ComfyUI

AI应用
ComfyUI

ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等

### LCEL 文件格式介绍 LCEL(LangChain Expression Language)是一种专门设计的语言,旨在简化链式工作流的创建管理。其核心目标是以一种高效且灵活的方式处理复杂的任务组合[^2]。 #### 设计目的 LCEL 的主要用途是在 LangChain 中作为表达语言来描述操作链式结构。这种语言不仅提供了统一的接口以支持多种调用模式(如同步、异步、批量流式处理),还允许开发者轻松地构建复杂的工作流[^3]。因此,LCEL 格式的适用场景通常涉及以下几个方面: 1. **自动化流水线** 使用 LCEL 构建的数据处理管道可以无缝集成多个模块,例如数据清理、转换以及最终的结果生成。这种方式特别适合于大数据处理中的各种应用场景[^1]。 2. **跨平台兼容性** 由于 LCEL 支持多样的执行方式(同步/异步等),它可以被用来开发能够在不同环境中运行的应用程序。比如,在分布式计算框架下或者云服务上部署的任务调度系统都可以利用这一特性。 3. **动态配置与扩展能力** 开发者可以通过 LCEL 动态调整链条内的参数设置甚至重新定义整个逻辑路径而无需修改底层代码架构。这意味着当业务需求发生变化时,只需简单改几行脚本即可完成升级迭代。 4. **调试便利性** 当遇到问题需要排查错误原因时,借助像 LangSmith 这样专用工具可以帮助用户深入了解当前所使用的具体实现细节及其行为表现形式[^4]。 以下是基于 Python 实现的一个简单例子展示如何运用 LCEL 来连接两个独立的功能单元——一个是负责检索 PDF 文档内容的部分;另一个则是将其翻译成英文版本的过程: ```python from langchain import LCEL, RunnableLambda def search_pdf(query): # 假设这里有一个函数可以从给定查询中提取相关内容片段自某个存储好的PDF文件里 pass def translate_to_english(text): # 此处代表将输入字符串转译为英语的操作过程 pass searcher = RunnableLambda(search_pdf) translator = RunnableLambda(translate_to_english) combined_chain = searcher | translator result = combined_chain.invoke({"query": "example query"}) print(result) ``` 上述代码展示了通过 `|` 符号链接两部分形成完整的解决方案,并且每一步骤均遵循了之前提到过的标准规范即实现了 runnable 接口从而具备高度灵活性及可维护性的特点。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值