引言
在当今人工智能的世界中,大语言模型(LLM)正在重新定义人机交互体验。本篇文章将带您了解如何使用MLX LLM作为聊天模型,构建功能强大的对话代理。我们将介绍如何利用MLXPipeline,利用ChatMLX类来与LangChain的Chat Messages抽象接口互动,并展示如何使用开源LLM来为ChatAgent管道提供动力。
1. 使用MLXPipeline初始化LLM
首先,我们需要选择一个LLM进行初始化。以下是具体实现:
from langchain_community.llms.mlx_pipeline import MLXPipeline
# 初始化MLXPipeline
llm = MLXPipeline.from_model_id(
"mlx-community/quantized-gemma-2b-it",
pipeline_kwargs={
"max_tokens": 10, "temp": 0.1},
)
使用API代理服务提高访问稳定性
在某些地区,访问API可能存在网络限制,使用API代理服务可提高访问的稳定性。
2. 使用ChatMLX应用聊天模板
接下来,我们实例化一个聊天模型,并传入一些信息。
from langchain_community.chat_models.mlx import ChatMLX
from langchain_core.messages

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



