革命性本地AI助手AgenticSeek:100%私有部署,告别API依赖与月费烦恼
你是否还在为AI助手的隐私问题担忧?是否厌倦了每月高昂的API费用?AgenticSeek的出现彻底改变了这一现状。作为一款开源本地AI助手,它无需API密钥,无需每月支付456美元的费用,让你在本地享受一个能够推理、编码和浏览网页的AI助手,无需任何担忧。
读完本文,你将了解到:
- AgenticSeek的核心优势与功能特点
- 如何快速搭建本地AI助手环境
- 多种部署方式满足不同需求
- 实际应用场景与使用技巧
- 常见问题解决方案
为什么选择AgenticSeek?
AgenticSeek作为一款开源本地AI助手,具有以下六大核心优势:
完全本地与隐私保护
🔒 所有数据都在你的设备上处理,无需上传至云端,确保文件、对话和搜索内容的完全隐私。这意味着你的个人信息不会被第三方获取,极大地保障了数据安全。
智能网页浏览
🌐 AgenticSeek能够自主浏览互联网,包括搜索信息、读取内容、提取数据和填写网页表单,全程无需人工干预。这为信息检索和自动化操作提供了极大便利。
自主编码助手
💻 无论是Python、C、Go还是Java,AgenticSeek都能编写、调试和运行程序,无需人工监督。对于开发者而言,这是一个高效的编程辅助工具。相关的AI功能源码可以在sources/agents/目录中找到。
智能代理选择
🧠 当你提出请求时,AgenticSeek会自动选择最适合完成任务的代理,就像拥有一个专家团队随时待命。这种智能分配机制大大提高了任务完成效率。
复杂任务规划与执行
📋 从旅行规划到复杂项目管理,AgenticSeek能够将大型任务分解为步骤,并使用多个AI代理协同完成。这使得处理复杂工作变得更加轻松高效。
语音交互功能
🎙️ 清晰、快速、未来感的语音和语音转文本功能,让你可以像与科幻电影中的个人AI对话一样与AgenticSeek交流(开发中)。这一功能将进一步提升用户体验,使交互更加自然便捷。
快速开始:本地部署指南
准备工作
在开始之前,请确保你的系统已安装以下软件:
- Git:用于克隆仓库。官方文档可参考docs/CONTRIBUTING.md
- Python 3.10.x:强烈建议使用Python 3.10.x版本,其他版本可能导致依赖错误。
- Docker Engine & Docker Compose:用于运行SearxNG等捆绑服务。
克隆仓库并设置
git clone https://gitcode.com/GitHub_Trending/ag/agenticSeek
cd agenticSeek
mv .env.example .env
修改.env文件内容
SEARXNG_BASE_URL="http://searxng:8080" # 若在主机上运行,则为http://127.0.0.1:8080
REDIS_BASE_URL="redis://redis:6379/0"
WORK_DIR="/Users/mlg/Documents/workspace_for_ai"
OLLAMA_PORT="11434"
LM_STUDIO_PORT="1234"
CUSTOM_ADDITIONAL_LLM_PORT="11435"
# API密钥均为可选,本地运行LLM时可留空
启动Docker
确保Docker已安装并运行。你可以使用以下命令启动Docker:
-
Linux/macOS:
sudo systemctl start docker或从应用菜单启动Docker Desktop。
-
Windows: 从开始菜单启动Docker Desktop。
通过执行以下命令验证Docker是否正常运行:
docker info
本地运行LLM的设置
硬件要求
运行LLM需要足够的硬件支持。最低要求是能够运行Magistral、Qwen或Deepseek 14B的GPU。有关详细的模型/性能建议,请参见FAQ。
设置本地提供商
以ollama为例,启动本地提供商:
除非你希望在主机上运行AgenticSeek(CLI模式),否则请导出或设置提供商监听地址:
export OLLAMA_HOST=0.0.0.0:11434
然后启动提供商:
ollama serve
更新config.ini
修改config.ini文件,将provider_name设置为支持的提供商,provider_model设置为提供商支持的LLM。推荐使用Magistral或Deepseek等推理模型。
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:14b
provider_server_address = 127.0.0.1:11434
agent_name = Jarvis
recover_last_session = True
save_session = True
speak = False
listen = False
jarvis_personality = False
languages = en zh
[BROWSER]
headless_browser = True
stealth_mode = True
本地提供商列表
| Provider | Local? | Description |
|---|---|---|
| ollama | Yes | 使用ollama作为LLM提供商轻松在本地运行LLMs |
| lm-studio | Yes | 使用LM studio在本地运行LLM(将provider_name设置为lm-studio) |
| openai | Yes | 使用openai兼容API(如llama.cpp服务器) |
启动服务并运行
选项1:Docker中运行,使用Web界面
启动所需服务。这将启动docker-compose.yml中的所有服务,包括:
- searxng
- redis (searxng所需)
- frontend
- backend (使用Web界面时)
./start_services.sh full # MacOS
start start_services.cmd full # Windows
警告:此步骤将下载并加载所有Docker镜像,可能需要长达30分钟。启动服务后,请等待后端服务完全运行(日志中应显示backend: "GET /health HTTP/1.1" 200 OK),然后再发送消息。后端服务首次运行可能需要5分钟。
访问http://localhost:3000/即可看到Web界面。
选项2:CLI模式
要使用CLI界面,需要在主机上安装软件包:
./install.sh
./install.bat # Windows
然后必须将config.ini中的SEARXNG_BASE_URL更改为:
SEARXNG_BASE_URL="http://localhost:8080"
启动所需服务:
./start_services.sh # MacOS
start start_services.cmd # Windows
运行CLI:uv run cli.py
实际应用场景
AgenticSeek可以应用于多种场景,以下是一些示例用法:
在Python中制作一个贪吃蛇游戏!搜索法国雷恩的顶级咖啡馆,并将三家带地址的列表保存在rennes_cafes.txt中。编写一个计算数字阶乘的Go程序,将其保存为workspace中的factorial.go搜索我的summer_pictures文件夹中的所有JPG文件,用今天的日期重命名它们,并将重命名的文件列表保存在photos_list.txt中在线搜索2024年热门科幻电影,挑选三部今晚观看。将列表保存在movie_night.txt中。
使用提示:在输入查询后,AgenticSeek会分配最适合完成任务的代理。由于这是早期原型,代理路由系统可能无法始终根据查询分配正确的代理。因此,你应该非常明确地说明你的需求以及AI可能如何进行。
例如,如果你想进行网络搜索,不要说:你知道哪些适合独自旅行的好国家吗?
而是应该问:进行网络搜索,找出哪些是最适合独自旅行的国家
高级配置:远程服务器部署LLM
如果你有一台功能强大的计算机或服务器,但想从笔记本电脑上使用它,你可以选择在远程服务器上运行LLM,使用我们的自定义llm服务器。
在服务器上获取IP地址
ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1 # 本地IP
curl https://ipinfo.io/ip # 公网IP
克隆仓库并进入server文件夹
git clone --depth 1 https://gitcode.com/GitHub_Trending/ag/agenticSeek
cd agenticSeek/llm_server/
安装服务器特定要求
pip3 install -r requirements.txt
运行服务器脚本
python3 app.py --provider ollama --port 3333
你可以选择使用ollama或llamacpp作为LLM服务。
在个人计算机上配置
修改config.ini文件,将provider_name设置为server,provider_model设置为deepseek-r1:xxb。将provider_server_address设置为运行模型的机器的IP地址。
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = http://x.x.x.x:3333
常见问题与解决方案
ChromeDriver问题
错误示例:SessionNotCreatedException: Message: session not created: This version of ChromeDriver only supports Chrome version XXX
根本原因
ChromeDriver版本不兼容的情况:
- 安装的ChromeDriver版本与Chrome浏览器版本不匹配
- 在Docker环境中,
undetected_chromedriver可能会下载自己的ChromeDriver版本,绕过挂载的二进制文件
解决步骤
1. 检查Chrome版本
打开Google Chrome → 设置 > 关于Chrome,找到你的版本(例如,"版本 134.0.6998.88")
2. 下载匹配的ChromeDriver
对于Chrome 115及更新版本:使用Chrome for Testing API
- 访问Chrome for Testing可用性仪表板
- 找到你的Chrome版本或最接近的可用版本
- 下载适用于你的操作系统的ChromeDriver(Docker环境使用Linux64)
对于旧版Chrome:使用传统ChromeDriver下载
3. 安装ChromeDriver(选择一种方法)
方法A:项目根目录(推荐用于Docker)
# 将下载的chromedriver二进制文件放在项目根目录
cp path/to/downloaded/chromedriver ./chromedriver
chmod +x ./chromedriver # 在Linux/macOS上使其可执行
方法B:系统PATH
# Linux/macOS
sudo mv chromedriver /usr/local/bin/
sudo chmod +x /usr/local/bin/chromedriver
# Windows:将chromedriver.exe放在PATH中的文件夹中
4. 验证安装
# 测试ChromeDriver版本
./chromedriver --version
# 或如果在PATH中:
chromedriver --version
总结与展望
AgenticSeek作为一款开源本地AI助手,为用户提供了一个完全私密、无需API依赖的解决方案。通过本文的指南,你可以轻松搭建自己的本地AI助手,并根据需要进行高级配置。
无论是日常办公、编程开发还是复杂任务管理,AgenticSeek都能成为你的得力助手。随着项目的不断发展,我们期待看到更多功能的加入和性能的提升。
如果你觉得AgenticSeek对你有帮助,请点赞、收藏并关注项目更新。我们将持续改进,为你带来更好的本地AI体验。
项目仍在积极开发中,作为一个从 side-project 开始的项目,它没有路线图,也没有资金支持。它的发展远远超出了我的预期,最终登上了GitHub Trending。非常感谢大家的贡献、反馈和耐心。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考




