(202402)多智能体MetaGPT入门1:MetaGPT环境配置

本文介绍了如何从MetaGPT仓库安装最新版本,通过本地部署大模型并尝试使用,包括失败到成功的经历,以及如何配置使用讯飞星火API的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

感谢datawhale组织开源的多智能体学习内容,飞书文档地址在https://deepwisdom.feishu.cn/wiki/KhCcweQKmijXi6kDwnicM0qpnEf

拉取MetaGPT仓库

1 仅仅安装最新版

pip install git+https://github.com/geekan/MetaGPT.git

这种方式实际上等同于仓库克隆到缓存文件夹中,然后进行本地安装。

2 拉取源码本地安装

git clone https://github.com/geekan/MetaGPT.git
cd /your/path/to/MetaGPT
pip install -e .

为了使得安装速度加快,可以将pip使用-i参数添加镜像源。

MetaGPT安装成果全流程展示

conda新建虚拟环境。推荐使用miniconda。

conda create -n metagpt-learn python==3.10
source activate metagpt-learn

拉取仓库:因为不打算进行切换分支等操作,因此可以指定指定主分支和最小clone深度以加快速度。
并进行源码安装

git clone https://github.com/geekan/MetaGPT.git --depth 1 -b main
cd MetaGPT
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -e .

从最后的输出结果可以看出安装的是0.7.2版本。
在这里插入图片描述内容真是相当的多呢。

尝试简单使用

1 本地部署大模型尝试(失败–>成功)

目前文档中首推的依然是使用openai的API,也提供了使用国内星火大模型或是智谱的GLM大模型的API的方法。由于是简单demo,所以下面尝试使用本地部署的大模型进行MetaGPT的试用。
观察MetaGPT的config配置文件

cat config/config2.yaml
cat config/config2.example.yaml

通过对上面两个文件的观察,对于MetaGPT使用API的方式有了一定的了解。

下面尝试使用。
依照文档所言, MetaGPT将会按照下述优先级来读取你的配置:config/key.yaml > config/config.yaml > environment variable
所以

cd config
cp config2.yaml key.yaml
vim key.yaml

将文件内容改为以下内容
在这里插入图片描述然后启动我的本地模型,这个模型很小,即使在cpu上运算生成tokens的速度仍然挺快,cpu(E5 2666v3)上约20tokens/s。

经过尝试,并没有读取key.yaml文件,而是读取的config2.yaml文件,修改后运行,出现错误,是api_type对不上导致的。
随便输入一个错误的api_type,可以获知metagpt支持的全部api_type。

For further information visit https://errors.pydantic.dev/2.5/v/missing
llm.api_type
  Input should be 'openai', 'anthropic', 'spark', 'zhipuai', 'fireworks', 'open_llm', 'gemini', 'metagpt', 'azure' or 'ollama' 

经查阅,我使用的llama.cpp部署了一个本地大模型,应该使用open_llm这个类型而不是ollama;并且api_key不能去掉,若去掉则报错,很难绷。并且我的模型在部署时没有指定api_key,按照惯例尝试了sk-no-key-requiredsk-no-key,均失败。故重新部署模型,仍然失败。解决后更新。
修改后的配置文件和结果展示如下,后面解决会进行更新:
(注意,下面的不是ease_url而是base_url,笔误。)
请添加图片描述
请添加图片描述在大模型部署服务端返回状态码400,似乎是api_key错误导致的。

瓜,本地部署写在配置文件里的url加了https了,应改为http,本地部署哪来的ssl/rsl,不加s。

然后成功调用了本地部署的API

2 讯飞星火API调用

为了先完成任务,现在使用讯飞星火大模型。

llm:
  api_type: 'spark'
  app_id: 'YOUR_APPID'
  api_key: 'YOUR_API_KEY'
  api_secret: 'YOUR_API_SECRET'
  domain: 'generalv3'
  base_url: 'wss://spark-api.xf-yun.com/v3.1/chat'

效果展示:
进入example文件夹运行llm_hello_world.py
在这里插入图片描述调国内API当然是不能失败的。

### 部署和使用MetaGPT大型语言模型 #### 本地环境准备 为了在本地环境中成功部署并使用MetaGPT大模型,需先准备好运行所需的软硬件条件。这通常涉及到操作系统的选择(如Linux、Windows或macOS),以及必要的软件包管理工具(例如pip对于Python环境)。确保计算机具备足够的内存与处理器性能支持所选的大规模预训练模型高效运作。 #### 获取源码及相关资源 通过官方渠道获取最新版本的MetaGPT项目源代码及其配套资料[^2]。这些文件可能包含了详细的README文档说明如何配置开发环境、安装依赖项以及其他重要的初始化步骤。 #### 安装依赖库 依据提供的指南完成所有必需第三方库的下载与安装工作。这部分操作往往借助于`requirements.txt`这样的清单文件自动执行,只需按照指示输入相应的命令即可: ```bash pip install -r requirements.txt ``` #### 设置API接口连接 鉴于不同LLM服务提供商有着各自独特的接入方式,利用OneApi这类中间件可以简化跨平台集成流程,实现对多个异构系统的兼容性支持[^1]。具体到MetaGPT的应用场景下,则要特别注意调整参数以适配目标服务器端口及认证机制等方面的要求。 #### 启动应用程序 一切就绪之后就可以尝试启动MetaGPT程序了。一般情况下会有一个专门用于此目的脚本文件存在,比如名为`start.sh`或者`run.py`之类的入口点。如果遇到任何异常情况,请参照错误提示信息排查原因所在。 #### 测试功能验证 最后一步是对整个系统进行全面的功能测试,确认各个模块能否正常协同作业。可以通过编写简单的查询语句来检验返回结果的质量;也可以考虑构建更复杂的对话场景模拟真实世界的交互体验。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

早上真好

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值