👍仅 3 天时间,Manus 开源版 OpenManus 便火爆出圈,收获了 39K Stars!它完全免费,无需漫长等待,无任何费用,也无需 API KEY,可直接对接本地开源大模型。通过调用本地 Ollama,使用体验超棒!
视频教程见文末尾
本地部署步骤
环境准备:
安装方式介绍:
-
为适配不同系统用户,提供两种安装途径,分别适用于 Windows 系统以及 macOS、Linux 系统。
方式一:conda 安装(推荐 Windows 用户使用)
步骤 1:新建一个 conda 环境 。
conda create -n open_manus python=3.12
conda activate open_manus
如果第二个命令,你遇到的错误提示
CondaError: Run 'conda init' before 'conda activate'
表明,在使用conda activate
命令之前,需要先运行conda init
命令对 Conda 进行初始化。
conda init
命令的作用是将 Conda 的环境激活脚本添加到你的 shell 配置文件里,像.bashrc
或者.zshrc
这类文件。当你首次安装 Conda 时,并不会自动执行这个初始化操作。你可以按以下步骤操作:
运行
conda init
命令。根据你的系统不同,使用对应的 shell 命令:
对于 Windows 系统的命令提示符或 PowerShell:
conda init
对于 Linux 或 macOS 系统的 Bash 或 Zsh:
conda init bash # 如果你使用的是 Bash conda init zsh # 如果你使用的是 Zsh
2.关闭并重新打开你的终端窗口,让初始化设置生效。
3.再次尝试激活环境:
conda activate open_manus
完成这些步骤后,应该就能成功激活
open_manus
环境了。
步骤 2:克隆存储库。
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
这里有的可能需要关闭防护墙,关闭后,重新打开cmd终端,进入(open_manus)
然后再用步骤2代码,这里可能遇到登录授权GitHub账号
步骤 3:安装依赖项。
pip install -r requirements.txt
步骤 4:安装Ollama 本地部署AI大模型。
Ollama 官方下载:【点击前往】
由于本地对接的AI模型,必须使用有函数调用的模型才可以, 比如 qwen2.5-coder:14b、qwen2.5-coder:14b-instruct-q5_K_S、qwen2.5-coder:32b 都可以,视觉模型可以使用 minicpm-v
本地模型安装命令:
ollama run qwen2.5-coder:14b
根据自己的显存选择除了14B:ollama run qwen2.5-coder:14b的,还有32B: ollama run qwen2.5-coder:32b 7B: ollama run qwen2.5-coder:7b 3B: ollama run qwen2.5-coder:3b 1.5B: ollama run qwen2.5-coder:1.5b 0.5B: ollama run qwen2.5-coder:0.5b
视觉模型安装命令:
ollama run minicpm-v
可以不下载,直接使用千问的大模型
当然你可以安装任何你想要的,只要支持函数调用的模型就可以, 只需在安装命令 ollama run 后面跟上模型名称即可!
步骤 5:修改配置文件
在安装目录下,找到 OpenManus\config\config.example.toml ,把config.example.toml 改成 config.toml
然后将里面的内容改成如下:
# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
max_tokens = 4096
temperature = 0.0
# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"
# Optional configuration for specific LLM models
[llm.vision]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
注意:里面的模型文件名称要改成你自己安装的,后面的视觉模型可以和上面的一致,也可以自定义其它的视觉模型!
最后运行即可
python main.py
详细的使用教程如下:
运行以后就可以进行使用了!它就可以完全自动调用浏览器,打开并浏览,查询并收集需要的信息
下次打开运行的命令如下:
conda activate open_manus
cd OpenManus
python main.py
方法 2:使用 uv(适合macOS用户)
1、安装 uv(快速 Python 包安装程序和解析器):
curl -LsSf https://astral.sh/uv/install.sh | sh
2、克隆存储库:
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
3、创建一个新的虚拟环境并激活它:
Windows 系统
uv venv
.venv\Scripts\activate
macOS系统
uv venv
source .venv/bin/activate
4、安装依赖:
uv pip install -r requirements.txt
5、安装Ollama 本地部署AI大模型
更多内容,详细见教程
官方开源项目:【链接直达】
如何卸载已安装过的模型?在CMD终端下,通过命令:
ollama list # 查询已安装的模型
ollama rm 模型名称 # 卸载并删除模型
比如需要删除qwen2.5-coder:14b模型,那么只需输入:
ollama rm qwen2.5-coder:14b
即可删除模型
视频教程
Manus 爆火!OpenManus 开源替代,无需邀请码,Ollama 对接,本地部署+实测