[AI Agent] 完全本地化!将 Aider 和 Ollama 部署在局域网,打造自己的本地 Codex 类 AI 助手

2025博客之星年度评选已开启 10w+人浏览 2.9k人参与

在 AI 助手类工具中,Aider 以其便捷的 Git 进程与 LLM 沟通能力受到广大开发者喜爱;Ollama 则是当前支持最广的本地运行的 LLM 平台之一,支持多种模型如 LLaMA3,Mistral,CodeLlama 等。本文将详细介绍如何在完全本地化和无网环境下,部署 Aider + Ollama,实现类 Codex 能力的自动化编程助手。
在这里插入图片描述

一、定位需求:局域网 AI 系统所面临的挑战

局域网环境,特别是严格隔网的内网场景,无法连接外网,无法连 GitHub 下载代码,无法 pip install,也无法连通 PyPI 排版版本等。这些因素需要我们重新设计部署流程,包括:

  • 预先打包好所有 wheel 包;
  • 避免直接拷贝环境,因为路径和 Python 入口失效;
  • 禁止 Aider 启动时去检查 PyPI 版本;
  • 禁止尝试连接 GitHub 查询模型元数据。

二、Ollama 安装与网络分发模型

  1. 制備 Ollama Linux 或 Windows 版本并安装
  2. 从有网机器上下载模型如 llama3:instruct
  3. 使用 ollama pull llama3:instruct
  4. 把 ~/.ollama 文件夹打包移至局域网内网机器
  5. 启动 Ollama :ollama serve
  6. 可选配使用 LAN proxy 分发模型服务

三、安装 Aider 与零网环境重要讲解

1.打包 wheel 包

在可连网的机器上进行:

pip download aider -d ./aider_wheels

将该目录整包移动到内网机器,然后手动安装:

pip install --no-index --find-links=./aider_wheels aider

2.不推荐直接拷贝 venv 环境

因为 venv 中 Python 路径和 entrypoint 是系统给定的,直接拷贝应用到不同环境很可能无法使用。建议重新创建 venv 并使用已打包的 wheel 安装所有依赖。

四、禁止 PyPI 和 GitHub 连接,加快启动

1.给 aider 加启动参数,禁止 pypi check

启动 Aider 时加上:

aider --no-check

2.确定已经修改 models.py,禁止联系 GitHub

打开:

~\AppData\Local\Programs\Python\Python312\Lib\site-packages\aider\models.py

查找 _update_cache 函数,修改为:

def _update_cache(self):
    # Skip remote model metadata fetch (disabled by local patch)
    return

此修改可以禁止在内网环境下对 GitHub 进行网络连接,减少启动等待时间。

五、结论:局网下打造私有 AI 系统无需依赖外部网络

通过本文手动部署方案,可以实现:

  • Aider + Ollama 全部部署在局域网,完全本地化
  • 全部进程可规定依赖打包,无需 pip online
  • 修改启动行为,避免因连接超时造成系统泪动

这种部署方式适合于支持内网工程化自动化工作流程,也是私有化 AI DevOps 模型系统的最佳实践之一。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

技术小甜甜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值