基于cpolar的n8n内网穿透远程访问配置实践

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

前言

本手册将全面阐述Windows操作系统环境下基于Docker容器技术实现n8n自动化系统的部署方案,重点解析MCP智能模块的整合应用,构建高效任务处理体系。通过集成cpolar内网穿透工具,用户可突破传统网络限制,在无公网IP或云服务器支持的情况下实现远程服务访问。整个实施过程将采用分阶段的模块化策略,通过逐步指导完成自动化流程的构建。

作为开源低代码自动化平台的典型代表,n8n系统具有三大核心特性:其一,提供超过400个预置API接口及900余个可直接调用的自动化模板;其二,采用图形化工作流编辑器,通过拖拽式节点配置简化操作流程;其三,支持私有化部署架构,确保企业数据的保密性与安全性。

根据官方技术规范要求,本案例采用Docker容器化部署架构。后续章节将深入解析实施关键环节,涵盖环境配置、功能模块整合及远程连接设置等核心操作步骤,协助用户建立完整的自动化任务处理系统。通过本指南的实践指导,可实现跨平台服务集成与智能化工作流管理的双重目标。

n8n.io - Screenshot

1.安装Docker

首先访问Docker官网下载地址,下载X86_64版本的Docker Desktop for Windows:

image-20250415143525515

其他操作系统下载与安装Docker可以查看这篇文章:Linux、Windows、MacOS安装Docker

可选: 如果想自己指定安装目录,可以打开cmd等终端工具使用命令行的方式 :

参数 –installation-dir=D:\Docker可以指定安装位置:

start /w "" "Docker Desktop Installer.exe" install --installation-dir=D:\Docker

然后,在任务栏搜索功能,勾选适用于Linux的Windows子系统虚拟机平台

image-20250415145553963

管理员权限打开命令提示符(cmd),安装wsl2:

wsl --set-default-version 2
wsl --update --web-download

等待wsl安装成功:

image.png

如因网络问题无法拉取docker镜像可按下方步骤操作配置镜像源:

Setting->Docker Engine->添加上换源的那一段,如下图:

"registry-mirrors":["https://hub.rat.dev","https://docker.1panel.live"],

image-20250415150207511

点击应用并保存后,重新打开docker desktop后,左下角显示 engine running 即可正常使用Docker。

image-20250415151708855

2. 本地部署n8n

在n8n的github主页:https://github.com/n8n-io/n8n 我们可以看到docker拉取并运行n8n容器的命令:

image-20250415152020714

打开cmd终端,执行命令即可:

docker volume create n8n_data
docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n

image-20250415152136269

n8n容器启动后,在浏览器中输入 http://localhost:5678

image-20250415153534746

在docker desktop中也能看到容器信息:

image-20250415161418350

访问后如果显示 n8n 注册账号页面,则说明安装成功:

image-20250415153502639

3. 简单使用演示

3.1 激活license key

填写注册信息后,点击next下一步:

image-20250415162720309

再简单填写一下调查问题点击get started继续:

image-20250415162938041

点击获取免费的license key到邮箱:

image-20250415163155280

最后进入邮箱,点击激活license key即可。

3.2 创建AI工作流

在n8n的主界面,我们首先点击右侧的使用现成的AI Agent模版进行创建即可:

image-20250415170756218

打开后,我们能看到提供了一个基础的工作流模版,我下面进行一下简单的修改,以便调用本地大模型进行工作:

image-20250415170924181

这个工作流的流程是接受到聊天信息后传导至后边的AI Agent模块,然后调用聊天大模型,这里的示例使用的是OpenAI的模型,我在本地已经安装了Ollama来调用大模型,所以先将这个删除:

image-20250415171239703

删除之后,点击加号,在右侧的语言模型栏中能看到ollama chat model,选择即可:

image-20250415171452819

在跳转的配置界面中,点击创建新凭证:

image-20250415171718872

然后输入你的ollama安装设备的IP地址,左上方的名字也可以自定义修改:

image-20250415172024022

看到连接测试成功的提示,即配置成功:

image-20250415172104229

PS:为了成功远程调用本地安装的Ollama,我们需要提前进行一下环境变量设置:

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

然后重启一下ollama服务即可

然后,选择一下要通过ollama调用本地哪个大模型:(支持函数调用的模型)

image-20250415172300587

然后点击返回即可:

image-20250415172356434

现在可以在n8n主界面看到模型已经修改为了ollama chat model:

image-20250415172459485

memory部分默认保留,tool暂时不用管,稍后添加:

image-20250415172803681

我们先用这个简单的工作流来测试一下:

image-20250415173713919

运行结束后,可以看到工作流的每个节点都显示绿色的对号表示没有出错:

image-20250415173910150

底部左侧能看到聊天交互中的提问与回答,在右边的日志面板中点击模型也能查看聊天记录:

image-20250415174329336

3.3 安装MCP节点

接下来,我们可以在n8n中添加MCP节点来实现在工作流中支持MCP服务。

点击个人账号–设置:

image-20250416113516917

点击社区节点后安装一个社区节点:

image-20250416113649776

输入节点名称:n8n-nodes-mcp 勾选下面选项,点击安装:

image-20250416113751735

安装完成后,需要重启一下n8n服务,我们现在就能在n8n工作流中中集成mcp服务了:

image-20250416113909889

3.4 添加MCP服务

回到首页,点击刚才创建的工作流:

image-20250416114018235

点击添加tool:

image-20250416134720340

输入mcp,选择下面描述为Use MCP client的MCP Client Tool:

image-20250416144257174

选择后,在弹出的页面首先点击新建进行mcp服务的设置:

image-20250416144720221

这里我们创建一个Tavily MCP Server进行演示,这是一款开源项目,AI助手可以方便地利用 Tavily 提供的搜索和提取工具,获得实时网络搜索和数据提取能力,快速获取和解析网络上的信息资源。

Tavily MCP Server的github主页:https://github.com/tavily-ai/tavily-mcp

在添加Tavily MCP Server到n8n工作流中之前,我们需要先获得它的安装参数与API Key,都可以在它的github主页获得。

image-20250416152507006

image-20250416152909177

将上边的参数添加到新建的MCP服务配置中:

image-20250416152812595

这里的环境变量需要添加的是TAVILY_API_KEY:

image-20250416153001929

三项都填好后,保存即可:

image-20250416153059671

然后在跳转的页面给这个mcp服务重新命名一下方便识别,大家可以自定义:

image-20250416153357787

修改完点击返回,可以看到已经在tool中添加了一个Tavily Mcp服务:

image-20250416153637795

然后在AI Agent中进行一下设置修改:

将source for prompt选项修改为define below,然后下面的prompt修改为:{{"Choose proper tool for user input:"+$json.chatInput }} 即根据用户的输入选择工具

image-20250416170524697

现在我们在聊天框中向它提个问题,可以看到每个节点都正常执行工作流,并给出了答案:

image-20250416155434744

到这里就成功在本地部署了n8n工作流平台并学习了如何调用本地大模型与添加mcp服务,之后你可以根据自己的需求添加其他的mcp服务来打造自己的全自动AI助手啦。

4. 安装内网穿透工具

但如果想实现不在同一网络环境下,也能随时随地在线使用n8n平台在网页中让AI助手执行任务,那就需要借助cpolar内网穿透工具来实现公网访问了!接下来介绍一下如何安装cpolar内网穿透,过程同样非常简单:

首先进入cpolar官网:

cpolar官网地址: https://www.cpolar.com

点击免费使用注册一个账号,并下载最新版本的cpolar:

image-20250307152003085

登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

image-20240319175308664

cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。

img

接下来配置一下 n8n Web UI 页面的公网地址:

登录后,点击左侧仪表盘的隧道管理——创建隧道,

  • 隧道名称:n8n(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择 http
  • 本地地址:5678
  • 域名类型:选择随机域名
  • 地区:选择China Top

image-20250416160452787

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式。

image-20250416160544243

使用上面的任意一个公网地址,在电脑或手机平板任意设备的浏览器进行登录访问,即可成功看到n8n的 WebUI 界面,这样一个公网地址且可以远程访问就创建好了,使用了cpolar的公网域名,无需自己购买云服务器,即可随时随地在网页中远程使用本地部署的AI工作流平台了!

image-20250416161124231

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期远程访问本地部署的n8n通过WebUI在线使用工作流平台,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置一个公网地址。

5. 配置固定公网地址

接下来演示如何为其配置固定的HTTP公网地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。

配置固定http端口地址需要将cpolar升级到专业版套餐或以上。

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:

image-20250416164326303

保留成功后复制保留成功的二级子域名的名称:myn8n,大家也可以设置自己喜欢的名称。

image-20250416164413871

返回Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:n8n,点击右侧的编辑:

image-20250416164521911

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:myn8n

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250416164555556

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250416164626769

最后,我们使用上边任意一个固定的公网地址访问,可以看到访问成功,这样一个固定且永久不变的公网地址就设置好了,可以随时随地在公网环境异地在线访问本地部署的Open WebUI来使用QWQ32B大模型了!

image-20250416164709795

image-20250416164821162

总结

通过上述实施流程,已在Windows操作系统成功搭建基于Docker的n8n自动化服务平台,并通过cpolar内网穿透技术实现Web端远程访问功能。该部署方案不仅构建了可自定义的子域名接入通道,更通过负载测试验证了系统在高并发场景下的运行稳定性与响应时效性。

实测数据显示,该自动化架构具备多重优势:图形化流程配置界面显著简化操作流程,集成400+预集成API服务满足多场景对接需求。私有化部署架构有效保障数据安全,结合内网穿透技术形成安全可靠的远程访问方案,实现功能与安全的双重要求。

在技术演进方向上,AI决策优化模块与智能任务调度系统的深度整合将成为重要升级路径。期待与行业开发者共同探索自动化技术的创新应用场景,欢迎在技术社区交流实践案例与优化方案。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

秋说

感谢打赏

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值