- 博客(20)
- 收藏
- 关注
原创 Grafana Query MCP:基于FastAPI的Grafana查询转换与分页服务
Grafana Query MCP 是一个基于 FastAPI 的查询转换与分页服务,面向中文自然语言场景,将上游解析后的业务参数转换为 Grafana 数据源可执行的查询,并通过 SSE/分页方式高效返回结果。系统内置 Discovery 后台扫描,自动采集数据源、Dashboards、Prometheus 指标名与 Elasticsearch 字段等信息,用于增强自动选择数据源与表达式生成的命中率,同时提供统一认证、速率限制与观测性(Prometheus 指标、结构化日志)。
2025-12-19 17:23:09
1043
原创 【AIOPS】自动化构建部署和回滚设计方案
本文介绍了基于Dify、JumpServer和Jenkins的AIOPS自动化构建部署方案。该方案通过自然语言处理解析用户需求,转化为标准化JSON格式,实现构建、部署、回滚等操作的自动化执行。系统包含意图解析、Jenkins交互、状态监控和结果分析四个核心模块,支持任务状态实时查询和失败自动重试机制。针对不同操作类型(如回滚与发布)设置了差异化的等待策略,并提供详细的执行结果分析和后续操作建议。典型应用案例展示了从用户需求输入到任务完成反馈的全流程,验证了方案的可行性和有效性。该方案显著提升了运维效率,降
2025-12-01 15:55:27
926
原创 【AIOPS】Dify+Zabbix:对话式告警查询优化方案
摘要: Dify与Zabbix-MCP集成方案通过自然语言交互实现Zabbix告警智能查询。用户可通过中文/英文描述需求(如“查询最近2小时严重告警”),系统自动识别意图并调用对应API(/alerts/top、/alerts/query或/alerts/nl),返回结构化运维报告。方案支持时间范围过滤、TOP排名统计及开放式分析,内置时间戳转换、严重程度映射等逻辑,输出包含告警概览、资源影响、根因建议的多维度分析。核心优势包括无需记忆查询语法、自动补全默认参数(如默认查询近1小时中高危告警)以及失败重试机
2025-12-01 15:37:30
1335
原创 【AIOPS】Zabbix-MCP 工具全面介绍
Zabbix-MCP:安全高效的Zabbix只读查询中台 Zabbix-MCP是一款专为Zabbix监控系统设计的查询能力增强工具,通过REST/CLI双接口形态解决原生API使用痛点。该工具以"全程只读"为核心原则,提供自然语言查询、日志关联分析等高效能力,同时确保数据安全。 主要特性包括: 统一查询入口整合Zabbix告警、事件等数据 严格RBAC权限控制和全链路审计 智能查询增强(自然语言解析、日志关键词关联) 内置Prometheus指标暴露和WebSocket状态监控 Zabb
2025-11-28 18:05:45
711
原创 【AIOPS】dify+elk-mcp实现AIOps对话式获取日志数据设计方案
本文提出了一种基于Dify和ELK-MCP的AIOps对话式日志查询方案,旨在降低运维门槛。系统通过Dify平台接收自然语言查询,利用大模型提取结构化参数并构建API请求,调用ELK-MCP获取日志数据后生成智能分析报告。方案包含详细的提示词设计,用于参数提取和分析报告生成,并建立了完整的工作流,涵盖异常处理和结果适配机制。该设计实现了从"自然语言输入"到"智能分析输出"的自动化流程,有效提升了日志分析效率和深度。
2025-11-26 17:26:41
870
原创 【AIOps】ELK-MCP工具:高效日志检索,稳定跨系统调用
ELK-MCP是一个专为工作流平台设计的日志查询后端,针对跨系统调用响应体过大问题提供稳健解决方案。该项目兼容Elasticsearch 6.5.4查询语法,通过"字段精简+分页上限+长消息截断"三重策略控制响应大小,确保Dify工作流稳定调用。架构包含ES查询适配器、日志归一化模块和路由控制,支持多租户与权限管理。关键特性包括DSL兼容、字段精简(_source.includes)、分页控制(MAX_PAGE_SIZE=20)和消息截断(MAX_MESSAGE_LEN=4096)。
2025-11-26 14:30:29
816
原创 【AIOps】Dify之N8N的AI工作流架构师生成设计
摘要: 本文介绍了面向n8n v1.98.1的AI工作流架构师系统,提供三种协作模式(新建/修改/混合)以生成零报错的JSON工作流。系统通过智能需求解析引擎,将自然语言需求自动映射为技术实现,严格遵循版本规范,确保节点兼容性和数据流安全。核心功能包括触发器识别、动态节点生成、影响评估及增量设计,支持天气通知、文件处理等常见场景的自动化流程搭建。用户只需按模板填写需求,即可获得可直接导入的完整JSON,同时保留原有功能(修改模式)。注意:生成的工作流需用户微调具体细节,不可完全依赖工具实现。
2025-11-24 11:59:44
211
原创 使用 Dism++ 10.1.1002.1 清理 C 盘的方法
Dism++清理C盘方法:从官网下载10.1.1002.1版本并以管理员身份运行,选择C盘后使用"空间回收"功能扫描清理缓存、日志等垃圾文件。建议全选清理项,操作前关闭其他程序,重要数据可先备份。还可选清驱动备份、兼容性缓存等,部分清理需重启完成。配合系统自带磁盘清理工具效果更佳。官方下载地址:dismplus.cn。
2025-10-24 16:44:22
606
原创 DBSyncer数据同步工具实操指南(V2.0.7)
DBSyncer是一款开源数据同步中间件,支持MySQL、Oracle、Elasticsearch等多样数据源的全量/增量同步。其核心优势包括:双模式同步机制(支持日志捕获实时增量)、可视化监控和轻量级部署(兼容JDK1.8+)。安装只需下载对应版本压缩包,配置环境变量后启动服务即可。典型应用场景如MySQL之间的数据同步,通过简单界面配置即可实现全量迁移和定时增量更新。该工具解决了异构数据源集成难题,适用于数据迁移、系统解耦等业务场景,相比传统方案更高效便捷。
2025-10-24 14:26:26
1132
原创 n8n 入门指南:介绍、部署与首个工作流搭建
n8n是一款开源可视化自动化工具,通过拖拽节点构建工作流实现自动化任务。它具有开源自主、低代码操作、高灵活性和丰富集成能力等特点,支持连接主流应用和数据库。文章详细介绍了在阿里云ECS上部署n8n的步骤,包括Docker安装、容器配置和常见问题处理。最后展示了如何创建第一个工作流,并指出n8n适用于数据同步、内容分发等多种自动化场景。该工具无需编程基础,是提升工作效率的实用解决方案。
2025-10-21 15:28:28
1470
原创 [AIOPS]AIOps智能运维助手:Dify+Ansible实战架构
该方案设计了一个基于Dify和Ansible的智能运维助手系统架构,主要包含LLM意图解析、安全校验、命令执行三大模块。系统通过LLM分析用户输入,提取服务器名和命令信息,自动处理危险命令提示(如rm -rf)和引号替换。执行层采用Ansible实现,包含资产匹配、SSH连接校验和命令安全执行功能,通过子进程调用并处理输出结果。系统提供JSON格式的API接口,支持前后端分离架构,并实现了命令执行日志记录和错误处理机制,确保运维操作的安全性和可追溯性。
2025-10-21 09:36:47
566
2
原创 [AIOPS]Dify+MCP实现告警报告生成
摘要:该日志处理系统包含多个功能节点,主要实现时间关键词提取(支持中英文数字转换)、告警数据统计(总告警数、恢复率、级别分布等)、主机/标签分析(限制30条)以及HTML报告自动生成。系统通过正则表达式处理输入,使用Google Chart.js生成可视化图表(饼图/折线图/柱状图),最终输出包含六大分析模块的专业报告:数据概览、每日趋势、告警级别、主机分布、标签分布及优化建议。各节点间通过JSON传递数据,支持中英混合时间单位换算为小时数,并对大数据集进行分页处理(限制30条展示)。
2025-08-25 14:16:00
1517
原创 AnythingLLM接入硅基流动的API
访问 SiliconFlow 官网:https://cloud.siliconflow.cn/i/24s1PqPc。配置相关内容,Base URL选择硅基流动的URL地址,APIKEY申请一下,模型名根据你选定的模型填写。下载安装AnythingLLM,登录进来,点击设置,选择LLM提供商。回到我们硅基流动官网,发现我们token值发生了变化,说明调用成功。添加成功后,在工作区聊天设置这边选择刚刚添加的供应商模型。新建APIkey和获取模型名。代理配置区也进行更新,同上。自此工作区模型更新成功。
2025-02-23 20:40:17
1984
原创 操作系统采用源码部署openwebui
问题分析,OpenWebUI 需要的 Node.js 版本是 >=18.13.0 <=22.x.x,而你当前的 Node.js 版本是 v12.22.9,不满足要求。而我这边 npm 版本是 8.5.1,虽然满足要求,但 Node.js 版本过低导致整个安装失败。没报apt_pkg模块不存在错误后,出现新的问题,没找到openwebui,这时候我们pip list |grep open-webui查看发现库不存在,执行pip install open-webui安装库。配置环境变量(根目录下)
2025-02-20 12:37:50
2537
原创 JetBrains 全系列的 IDE接入deepseekAI模型教程
Tip:这里我演示PyCharm和IDEA的接入过程,其他应用接入过程相同,可照搬。
2025-02-13 16:18:00
1745
原创 【程序员必备小技巧】vscode接入deepseek大模型
到这一步模型都以及部署完成了。接下来我们进行运行测试,由于我选择的是本地部署的AI,所以有点吃GPU,这点根据自己选择变更。工具选择完后,选择ollama里面的模型,这边简易选择Autodetect,自动匹配工具里的模型。当然也可以自己选择。点击进去后在输入框的左下角我们选择自己所需要的模型,我这边选择的是本地部署的ollama模型,实现全面离线化。根据自己的需求选择不同的插件,我这边选择的是Continue,如下图所示。插件安装完成后可以在左侧栏看到Continue图标,点进去。
2025-02-12 14:36:31
1649
原创 【小妙招】WPS接入deepseek大模型,10min速成
访问OfficeAI插件下载地址:https://www.office-ai.cn/,下载插件(目前只支持windows系统)。安装插件:下载完成后,双击安装文件,按照提示完成安装。在安装过程的弹窗中,确保已勾选需要的所有功能,如“文生图”功能。打开DeepSeek官网:https://www.deepseek.com/。登录账号:点击右上角的“API开放平台”,登录账号(如果没有账号,先注册一个)。创建API Key:登录成功后,点击左侧的“API Keys”,然后点击“创建API Key”,输入一个名称
2025-02-11 16:24:15
11822
原创 deepseek离线本地化部署
下载完成后,双击安装包文件,按照安装向导的提示进行安装。默认安装路径为 C:\Users\<用户名>\AppData\Local\Programs\Ollama,如果需要更改安装路径,可以在安装过程中选择自定义安装目录。安装完成后,按下 Win+R 键,输入 CMD 并回车,打开命令提示符。在命令提示符中输入 ollama -v,如果显示 Ollama 的版本号(如 0.5.7),则说明安装成功。进入ollama官网下载模型选择适配你电脑的模型。参考下方表格671B1400GB全方位高性能70B。
2025-02-10 14:55:50
2892
原创 公众号接入Deepseek
"wechatmp_app_secret": "your_wechatmp_app_secret", // 微信公众平台App Secret。"group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], // 支持的群名称。"wechatmp_app_id": "your_wechatmp_app_id", // 微信公众平台App ID。
2025-02-08 18:58:41
1280
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅