Khoj项目自托管部署完全指南
前言
Khoj是一款强大的AI知识管理工具,支持本地化部署,让用户能够完全掌控自己的数据隐私。本文将详细介绍如何在个人计算机上自托管部署Khoj项目,包括Docker和Pip两种安装方式,以及后续的配置优化指南。
为什么选择自托管Khoj
自托管Khoj具有以下显著优势:
- 数据隐私保护:所有数据都保留在您的私有网络中,无需担心数据泄露风险
- 离线可用性:在没有互联网连接的情况下仍可使用核心功能
- 高度可定制:可以自由选择AI模型、配置服务器参数和功能模块
部署前准备
系统要求
- 操作系统:支持Windows、macOS和Linux
- 内存:建议至少8GB,使用离线模型推荐16GB以上
- 存储空间:至少5GB可用空间
- 网络:仅本地使用无需互联网,远程访问需要网络配置
部署方式选择
Khoj提供两种主要部署方式:
1. Docker部署(推荐)
Docker方式提供更好的隔离性和便捷性,特别适合以下场景:
- 需要快速部署和运行
- 希望使用GPU加速离线模型
- 需要更简单的环境管理
各平台Docker部署步骤
macOS平台:
- 安装Docker Desktop和Docker Compose
- 创建配置目录并下载docker-compose.yml文件
- 配置环境变量(安全密钥、API密钥等)
- 启动Khoj服务
Windows平台:
- 安装WSL2并重启系统
- 安装Docker Desktop(使用WSL2后端)
- 在WSL2环境中执行与Linux相同的部署步骤
Linux平台:
- 安装Docker Engine和Docker Compose
- 后续步骤与其他平台相同
2. Pip直接安装
适合Python开发者或需要更灵活配置的场景,支持多种硬件加速:
macOS(M1/M2芯片):
CMAKE_ARGS="-DGGML_METAL=on" python -m pip install 'khoj[local]'
Windows平台: 根据GPU类型选择不同安装参数:
- NVIDIA GPU:设置
-DGGML_CUDA=on - AMD GPU:设置
-DGGML_HIPBLAS=on - Vulkan GPU:设置
-DGGML_VULKAN=on
Linux平台: 类似Windows,根据硬件选择相应参数安装
首次运行配置
无论采用哪种部署方式,首次运行时都需要:
- 创建管理员账户(设置安全密码)
- 配置聊天模型(可选择在线或离线模型)
- 等待服务初始化完成(看到"🌖 Khoj is ready to engage"提示)
高级配置指南
聊天模型设置
Khoj支持多种AI模型,可通过管理面板配置:
-
在线模型:
- OpenAI:需要API密钥,支持GPT系列模型
- Anthropic:支持Claude系列模型
- Gemini:Google的AI模型
-
离线模型:
- 从HuggingFace获取GGUF格式模型
- 完全私有,不依赖互联网
- 需要较强硬件支持(推荐NVIDIA/AMD GPU或Mac M系列)
知识库同步
Khoj可以与多种数据源集成:
- 本地文件和文件夹
- Notion工作区
- 通过桌面客户端同步(支持拖拽上传)
客户端配置
Khoj提供多种客户端访问方式:
- Web界面(默认启用)
- 桌面应用
- Obsidian插件
- Emacs扩展
常见问题解决
- CSRF错误:确保使用localhost而非127.0.0.1访问
- DISALLOWED HOST错误:设置正确的KHOJ_DOMAIN环境变量
- 离线模型下载慢:首次使用需要下载模型,请耐心等待
- 管理员面板登录问题:Safari浏览器可能存在兼容性问题,建议使用Chrome或Firefox
性能优化建议
- 为离线模型配置GPU加速
- 根据硬件选择合适的模型大小
- 定期维护知识库索引
- 合理设置聊天模型的token限制
结语
通过本文的详细指南,您应该已经成功部署了自己的Khoj实例。自托管Khoj不仅提供了更好的隐私保护,还能根据个人需求灵活配置。建议初次使用后,逐步探索各项高级功能,如自定义模型、多客户端集成等,以获得最佳的使用体验。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



