OpenManus + Ollama 本地部署指南
安装前的准备工作
在开始安装 OpenManus 和 Ollama 之前,我们需要做一些准备工作,确保后续的安装过程顺利进行。
硬件要求
使用 OpenManus + Ollama 的最低硬件要求:
组件 | 最低配置 | 推荐配置 |
---|---|---|
CPU | 4核心 | 8核心以上 |
内存 | 8GB RAM | 16GB以上 |
存储 | 20GB可用空间 | 更多空间用于模型和数据 |
GPU | 可选 | NVIDIA GPU(6GB显存以上) |
注意:虽然没有 GPU 也能运行,但速度会受到影响。如果你的电脑配置有限,可以考虑使用较小的模型。
软件环境准备
根据你的操作系统,准备以下基础软件环境:
Windows 系统
- 安装 Python 3.10 或更高版本
- 安装 Git
- (可选)安装 CUDA 支持(如有 NVIDIA GPU)
macOS 系统
- 安装 Homebrew
- 通过 Homebrew 安装 Python 和 Git
- M1/M2 芯片 Mac 无需额外 GPU 支持
Linux 系统
- 更新系统包管理器
- 安装 Python 3.10+ 和 Git
- 安装 CUDA 和相关驱动(如有 NVIDIA GPU)
核心安装步骤
步骤一:安装 Ollama
Ollama 是一个强大的本地大语言模型运行工具,可以让你在本地运行各种开源大模型,无需 API 密钥。
Windows 安装
- 访问 Ollama 官网 下载 Windows 安装包
- 运行安装程序,按提示完成安装
- 安装完成后,Ollama 会自动在后台运行
macOS 安装
curl -fsSL https://ollama.ai/install.sh | sh
安装完成后,从应用程序中启动 Ollama
Linux 安装
curl -fsSL https://ollama.ai/install.sh | sh
ollama serve
步骤二:下载并安装所需模型
安装完 Ollama 后,我们需要下载 OpenManus 所需的语言模型。建议使用以下两个模型之一:
选项 1:qwen 模型(中文支持更好)
ollama pull qwen:7b
选项 2:Llama 模型(综合性能更强)
ollama pull llama3:8b
提示:根据你的网络环境和硬件条件,模型下载可能需要 5-20 分钟。下载完成后,Ollama 会自动优化模型以适应你的硬件。
步骤三:安装 OpenManus
- 克隆仓库:
git clone https://github.com/metagpt-ai/openmanus.git
cd openmanus
- 创建并激活虚拟环境:
# Windows
python -m venv venv
venv\Scripts\activate
# macOS/Linux
python3 -m venv venv
source venv/bin/activate
- 安装依赖包:
pip install -r requirements.txt
步骤四:配置 OpenManus 使用 Ollama
- 创建配置文件:
cp config/config.example.toml config/config.toml
- 编辑配置文件(使用任意文本编辑器打开
config/config.toml
),修改[llm]
部分:
[llm]
model = "ollama/qwen:7b" # 或 "ollama/llama3:8b",取决于你下载的模型
base_url = "http://localhost:11434/api"
api_key = "" # 使用 Ollama 不需要 API 密钥
max_tokens = 2048
temperature = 0.2
步骤五:启动 OpenManus
python main.py
启动后,你会看到 OpenManus 的命令行界面。现在,你可以开始输入任务,测试你的本地 AI 智能体了!
进阶配置
优化模型参数
编辑 config/config.toml
文件中的模型参数:
[llm]
# ... 其他设置保持不变
temperature = 0.2 # 降低创造性,提高确定性
max_tokens = 4096 # 增加输出长度上限
添加外部工具支持
OpenManus 支持多种外部工具集成。例如,添加网络搜索能力:
- 安装搜索插件:
pip install openmanus-plugin-search
- 在配置文件中启用该插件:
[plugins]
enabled = ["search"]
使用更强大的商业模型提升效果
如果你希望获得更好的性能,可以配置 OpenManus 使用商业模型 API。这里我们推荐使用 laozhang.ai 的 API 服务,它提供了比官方 API 低至 1/4 的价格:
- 注册 laozhang.ai 获取 API 密钥
- 编辑配置文件:
[llm]
model = "gpt-4o-all" # 使用 GPT-4o
base_url = "https://api.laozhang.ai/v1"
api_key = "sk-lzapi-xxx" # 替换为你的 laozhang.ai API 密钥
max_tokens = 4096
temperature = 0.2
省钱提示:使用 laozhang.ai API 访问顶级商业模型,价格仅为官方的 1/4。例如,GPT-4o 官方价格 $20/百万 tokens,而 laozhang.ai 仅需 $5/百万 tokens,同时保持 100% 兼容性和稳定性。
实战演示
示例 1:数据分析与可视化
输入以下指令:
帮我分析最近一周的股票市场数据,包括上证指数、创业板指数和主要科技股的走势。生成一份包含趋势分析、关键指标和可视化图表的报告。
OpenManus 会:
- 自动获取和处理股票数据
- 进行技术指标分析
- 生成趋势分析报告
- 创建交互式可视化图表
- 提供投资建议摘要
示例 2:智能家居自动化
输入以下指令:
帮我设计一个基于 Python 的智能家居控制系统,需要实现以下功能:
1. 通过语音控制家电
2. 根据室内温度自动调节空调
3. 检测到异常情况时发送通知
4. 支持定时任务和场景模式
OpenManus 会:
- 设计系统架构和模块划分
- 生成核心控制代码
- 集成语音识别和自然语言处理
- 实现传感器数据采集和处理
- 提供完整的部署文档
示例 3:智能客服机器人
输入以下指令:
我需要一个智能客服机器人,能够:
1. 自动回答常见问题
2. 处理订单查询和物流跟踪
3. 收集用户反馈
4. 在必要时转接人工客服
请帮我设计对话流程和实现核心功能。
OpenManus 会协助你:
- 设计对话管理系统
- 构建知识库结构
- 实现意图识别和实体提取
- 开发多轮对话管理
- 集成业务系统接口
- 提供测试用例和部署方案
常见问题解答
Q1: OpenManus 启动时报错"无法连接到 Ollama 服务"
解决方案:
- 确认 Ollama 服务是否正在运行(Windows 任务管理器或 macOS 活动监视器中检查)
- 重启 Ollama 服务:
# Windows: 从开始菜单重启 Ollama
# macOS/Linux:
ollama serve
- 检查配置文件中的 base_url 是否正确(应为
http://localhost:11434/api
)
Q2: 模型响应速度很慢或不稳定
解决方案:
- 尝试使用更小的模型(如
qwen:1.5b
或phi:3b
) - 减小
config.toml
中的max_tokens
值 - 如有 GPU,确保 CUDA 正确安装并被识别
- 关闭其他占用大量资源的应用程序
Q3: 安装依赖包时出错
解决方案:
- 更新 pip 到最新版本:
pip install --upgrade pip
- 逐个安装关键依赖:
pip install openai pydantic fastapi
- 如果特定包安装失败,可能需要安装操作系统级别的依赖库
Q4: 生成的回答质量不高或不够准确
解决方案:
- 调整模型参数,降低 temperature 值(0.1-0.3 之间)提高确定性
- 尝试使用更高质量的模型(如配置 laozhang.ai API 使用 GPT-4o 或 Claude 3.5)
- 优化你的提示词,提供更具体的指示和上下文
总结与展望
OpenManus + Ollama 的组合为我们提供了一个完全免费且可本地部署的 AI 智能体解决方案,不仅避免了 Manus 的邀请码限制和订阅费用,还保护了数据隐私,特别适合个人开发者和小型团队使用。