本地部署自己的多专家协作系统:环境配置篇1

本项目旨在模拟多个行业专家对问题进行精细分工,并逐一回答后汇总,从而得到更专业的回复。

链接:MultyAgentCollabration项目地址
配置的B站讲解视频:B站讲解视频

本文着重介绍环境配置方法

一定要先下拉项目哦,或者下载zip解压,这里自便。

git clone https://gitee.com/emperors-chair/multy-agent-collabration.git

设计思路去项目地址看吧,我都留在那里了。

1.环境配置前提

1.1 anaconda环境

anaconda安装教程:安装教程
pip设置清华源

跟着操作就完事了~

1.2 Lm-studio下拉本地模型

Lm-studio地址:文档地址
这个下载好,下拉模型就可以了,可能需要一点魔法,或者直接从huggingface或者其他渠道自己下拉.gguf格式的模型即可。

1.3 ollama环境配置

ollama官网链接:ollama地址
下载安装包一顿安装就完事了~

1.4 安装sqlite

参考链接

1.5 CUDA配置(选配)

显卡利用起来 根据个人型号来选择 我的是12.1

2.配置虚拟环境

这个看个人习惯,我习惯配置不同的python虚拟环境,从而方便隔离,建议参考我的方式。【重点:这一步之前必须安装好anaconda,并把pip配置国内源,切记切记】

2.1 创建虚拟环境

打开anaconda prompt(黑框)
左下角找
打开是这样的
在这里插入图片描述

我这里的ovtest,随便改名,别有中文就行

conda create -n ovtest python=3.9

2.1 激活虚拟环境

激活虚拟环境进入环境

conda activate ovtest

2.2 开始装包

cd进入到项目地址,比如我的是D:/MultyAgentCollabration

cd D:/MultyAgentCollabration

安装相应的包,一定要注意,先配置好国内源,要不慢死

pip install -r requirements.txt

2.3 ollama导入本地模型

可以参考链接 ollama本地导入模型参考

2.4 修改本地模型的名称,ollama中的名称

打开cmd 输入

ollama list

比如我最新导入的模型是这个
在这里插入图片描述
这个名称要对应同步到ModelUse.py中model的位置
在这里插入图片描述
确认好后,打开cmd 输入:

ollma start

注意这个细节:
在这里插入图片描述
这个报错可能是因为右下角的ollama后台程序没关闭
在这里插入图片描述
所以右键关闭它
在这里插入图片描述
再次尝试

在这里插入图片描述
这就ok了,切记这个窗口不要关闭

接下来运行main.py,输入问题
在这里插入图片描述

在这里插入图片描述在这里插入图片描述

最后输出结果
在这里插入图片描述
这个结果会保存到data目录下,可以追溯与查看
在这里插入图片描述

这里就是一次简单的演示,后续系统仍有完善的空间,欢迎留言讨论。

最近manus项目比较火,还要申请码,属实难过,我这个想法在去年,陆陆续续修修补补,虽然还不尽如意,不过我相信会有一天,我能迭代出比他们更好的产品。
后续我还有很多奇思妙想等待实现,敬请期待。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值