AgenticSeek 项目安装与配置指南
1. 项目基础介绍
AgenticSeek 是一个开源项目,旨在创建一个类似于 Manus AI 的本地化替代方案。它是一个基于 DeepSeek R1 推理模型的自主代理,能够进行编码、文件系统导航、网页浏览以及自动纠错,而无需将任何数据发送到云端。这个项目完全在用户的硬件上运行,保证数据隐私。
主要编程语言:Python
2. 项目使用的关键技术和框架
- DeepSeek R1:一种推理模型,用于处理代理的思考和决策。
- Ollama:一个本地 AI 服务器,用于运行 DeepSeek R1 模型。
- Docker:用于容器化应用,简化部署过程。
- Chrome Driver:用于自动化网页浏览。
3. 项目安装和配置的准备工作
在开始安装前,请确保您的系统已经安装以下软件和依赖项:
- Python 3.10 或更高版本
- Docker
- Chrome Driver
详细安装步骤
第一步:克隆仓库
打开命令行终端,执行以下命令以克隆项目仓库:
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
第二步:设置环境变量
将 .env.example
文件重命名为 .env
并根据需要编辑其中的变量:
mv .env.example .env
第三步:创建虚拟环境
在项目目录中创建一个虚拟环境:
python3 -m venv agentic_seek_env
激活虚拟环境:
-
对于 Linux 或 macOS:
source agentic_seek_env/bin/activate
-
对于 Windows:
agentic_seek_env\Scripts\activate
第四步:安装依赖
可以选择自动安装或手动安装:
-
自动安装:
./install.sh
-
手动安装:
pip3 install -r requirements.txt
或者:
python3 setup.py install
第五步:下载 DeepSeek 模型
确保已经安装了 Ollama,然后从 DeepSeek 下载模型:
ollama pull deepseek-r1:14b
第六步:运行 Ollama 服务器
启动 Ollama 服务器:
ollama serve
编辑 config.ini
文件,设置以下参数:
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:14b
provider_server_address = 127.0.0.1:11434
第七步:启动所有服务
根据您的操作系统执行以下命令:
-
对于 Linux:
sudo ./start_services.sh
-
对于 Windows:
start ./start_services.cmd
第八步:运行代理
在虚拟环境中运行主程序:
python3 main.py
现在,代理应该已经启动并准备接收指令了。
请注意,这是一个简化的安装指南,可能需要根据您的具体环境进行适当的调整。在安装过程中遇到问题时,请参考项目的官方文档和仓库中的 README.md
文件。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考