- 博客(108)
- 收藏
- 关注
原创 RAG 系统架构设计模式介绍
RAG系统架构设计模式主要包括线性、条件、分支和循环四种模式。线性模式按顺序执行预检索、检索、后检索和生成模块,适合顺序性任务。条件模式通过路由模块动态选择处理流程,灵活应对多样化场景。分支模式并行运行多个子流程,增强结果多样性。循环模式通过调度模块实现模块间的迭代优化,逐步提升结果质量。这些模块化设计模式使RAG系统能够高效处理复杂任务,同时保持灵活性和扩展性,满足不同应用场景的需求。
2025-11-22 13:59:22
798
原创 从零开始学LangGraph:手把手教你搭建简易Graph
本文介绍了如何使用LangGraph从零开始搭建一个简易Graph,主要包含三个核心步骤: 定义State:通过TypedDict创建应用状态,定义角色职业、等级和血量等字段及其数据类型。 创建Node函数:编写两个节点函数,一个处理角色闪避判定和血量变化,一个展示角色状态信息,并详细说明函数定义、文档描述和业务逻辑实现。 构建Graph:展示如何实例化StateGraph、添加节点以及连接节点(包括起始节点和结束节点),最终编译生成可执行的Graph应用。 文章采用循序渐进的方式,先重点讲解State的S
2025-11-22 13:58:25
1012
原创 基于Agent驱动的工作流开发模式探索
本文探索了一种新型的Agent驱动工作流开发模式,与传统预定义流程不同,它将Agent作为底层框架而非简单节点。这种模式颠覆了"先建模后执行"的传统思维,转向"先定义目标后自组织执行"的新范式。开发过程中只需定义工作流节点和描述,由Agent自动完成流程调度,大大简化了开发流程。相比传统工作流引擎,新模式具有参数自组织、动态适应等优势,能自动从上下文中提取所需参数,显著降低实现复杂度。虽然仍需编写业务代码,但通过Agent的智能调度,可以重构复杂业务流程,提高开发效率
2025-11-22 13:56:47
591
原创 大语言模型(LLM)训练的三个阶段
大语言模型的训练分为三个关键阶段:预训练阶段通过海量文本学习语言规律和世界知识,形成基础模型;监督微调阶段使用高质量对话数据教会模型遵循指令和对话技巧;强化学习阶段通过试错机制或人类反馈优化模型的问题解决能力。这三个阶段共同将一个简单的文本模拟器逐步转变为能够理解、思考并与人类有效互动的智能助手。
2025-11-22 13:55:50
797
原创 AI Agent | 也说说上下文工程(Context Engineering)
摘要 上下文工程(CE)是优化大模型交互效果的系统化方法,相比提示词工程(PE)具有四大优势:结果更稳定可重复、扩展性更强、具备状态记忆能力、用户操作负担更低。CE包含五大模块:动态检索、记忆系统、工具使用、提示工程和上下文更新机制,不同场景可灵活组合。以AI编程助手为例,CE通过显式配置文件(编码规范等)和隐式交互信息(代码片段、对话历史)的智能组合,显著提升代码生成质量。CE代表了AI开发范式的转变,将成为未来AI应用落地的关键技术,如同编写README一样,编写优质上下文文件将成为开发者必备技能。
2025-11-22 13:55:05
943
原创 企业级 RAG 系统实战(2万+文档):10 个项目踩过的坑(附代码工程示例)
企业级RAG系统实战经验总结 本文分享了在企业级RAG系统开发中的关键经验,基于10多个实际项目(处理2万+文档)的实践。核心发现包括: 文档质量评估至关重要,应建立评分系统将文档分类处理 固定分块策略不适用,需采用层级化分块保留文档结构 精心设计的元数据架构比embedding模型更重要 纯语义搜索在专业领域失败率高,需结合规则检索 开源模型(Qwen)在成本、数据主权和术语处理上表现优异 文中还提供了文档质量评分、层级分块等关键环节的代码实现示例。企业级RAG系统更多是工程挑战而非单纯ML问题,需特别关
2025-11-21 14:35:59
986
原创 为 AI 智能体打造高效的上下文工程 – Anthropic
摘要 上下文工程是构建高效AI智能体的核心方法,旨在解决大模型的上下文衰减和注意力预算限制问题。关键策略包括:使用信息量高但token少的系统提示;通过即时上下文检索和工具动态加载数据;采用压缩、结构化笔记和子智能体架构管理长周期任务。这些方法帮助智能体在有限上下文窗口中保持高效运作,实现更强大的自主性和连贯性。随着模型能力提升,混合策略和自主检索将成为智能体设计的趋势。
2025-11-21 14:34:14
813
原创 解读《上下文工程 2.0》,AI 交互的过去、现在与未来
《上下文工程 2.0》论文系统梳理了AI交互的发展历程,提出上下文工程是弥合人机理解鸿沟的关键。文章将发展划分为四个时代:原始计算时代(人类适应机器)、智能体时代(对话式交互)、未来类人智能时代(自然协作)和超人智能时代(AI主导)。当前实践围绕三大支柱:上下文收集存储(多模态分布式)、管理(结构化处理)和使用(智能体协作)。尽管取得进展,仍面临收集瓶颈、长上下文处理等挑战。论文指出,上下文工程的演进将推动人机关系从"适应"到"共生"的转变,是AI发展的核心驱动力。
2025-11-21 14:32:50
658
原创 使用 LangGraph 构建复杂的多 Agent 系统:智能合同审核实战
摘要 本文介绍了如何使用LangGraph构建智能合同审核与风险分析系统。该系统采用Supervisor架构,通过中心Agent协调多个专业化子Agent(条款抽取、风险评估)协作完成任务。文章详细讲解了LangGraph的关键组件:状态管理(定义合同审核的共享数据结构)、工具定义(条款抽取、合规检查等函数)、记忆系统(短期记忆保存会话上下文,长期记忆存储用户偏好)。系统通过提示词工程指导各Agent行为,并支持人机协作(HITL)。该架构能有效应对LLM的幻觉问题,提升复杂合同审核任务的准确性和个性化服务
2025-11-21 13:57:39
612
原创 Agent 开发者重大利好!Dify 知识库 RAG 升级 Knowledge pipeline
Dify知识库迎来重大升级,推出Knowledge Pipeline功能,为企业AI应用提供可视化、可编排的RAG数据处理基础设施。该升级解决了非结构化文件处理、数据处理黑盒问题,降低开发维护成本,并支持多种数据源接入。测试显示,新系统能有效解析图片PDF、表格等复杂文档信息,并支持多文档综合检索。用户可通过内置模板快速配置知识库流水线,选择适合的embedding和rerank模型,完成知识库部署。这一升级为开发者提供了更强大的知识管理工具,助力企业AI应用落地。
2025-11-21 13:55:51
1422
原创 初识LangGraph - 从零开始
本文介绍了LangGraph框架的特性与应用价值。LangGraph是专为构建有状态AI应用设计的框架,通过状态图模型将应用流程可视化,节点代表处理步骤,边代表状态流转。相比传统if-else方式,LangGraph具有代码结构清晰、自动生成流程图、内置状态持久化等优势。文章以游戏开发为喻,解释了LangGraph的核心概念:状态(背包系统)、节点(任务点)、边(道路系统)和检查点(存档系统),并展示了其在SurveyEase智能调研项目中的实际应用架构。该框架能有效解决复杂对话流程管理难题,提升开发效率和
2025-11-20 13:50:42
889
原创 面试官问:Agent 的规划模块是怎么实现的?
Agent规划模块的实现逻辑与工程取舍 当前Agent系统的规划模块主要采用"人工预设+模型填充"的混合模式,而非完全依赖LLM自主规划。主流实现方式包括: 框架控制:通过Prompt模板(如ReAct的Thought-Action循环)或程序结构(如BabyAGI的任务分派机制)固定规划流程; 分层设计:将规划拆分为任务分解、优先级排序、执行监控等子模块,LLM仅负责具体内容生成; 工程取舍:流程固定/高风险的逻辑硬编码(如风控审核),灵活/创意性任务用Prompt引导(如文案生成)。
2025-11-20 13:48:51
1019
原创 Claude的Agent开发圣经(一)| Agent的设计模式
针对用户问题,先由Coordinator进行意图识别,将符合深度研究的问题交给planner(自主规划)进行任务分解,当用户确认进行深度研究后,由research_team(协调者)判断是否需要调用coder,以及安排几个researcher(辅助者)执行子任务,research_team综合结果后交给planner判断获取的信息是否足够,然后交给reporter生成最终的研究报告。有些任务虽然复杂,但能清晰地拆解为几个固定子任务,那么就可以让LLM每次任务调用都更简单明确,权衡延迟以获得更高的准确性。
2025-11-20 13:47:47
603
原创 通用智能体开发框架:架构设计与技术实现解析
摘要: 本文提出了一种通用智能体开发框架的三层架构设计,包括智能体协同层、数据处理层和存储层。框架通过模块化设计实现任务规划、多模态数据处理与高效存储的协同优化。核心组件包含指挥智能体(任务拆解与调度)、数据智能体(结构化/非结构化数据处理)、分析智能体(多模态数据融合分析)及系统记忆组件(分层记忆管理)。关键技术涵盖数据预处理流程(分块-索引-嵌入)、混合存储体系(关系型/向量数据库)以及动态算法调度机制。该框架在金融、客服等场景中展现出95%以上的处理准确率与毫秒级响应能力,为智能体系统开发提供标准化参
2025-11-20 13:46:53
904
原创 4大阶段,10个步骤,助你高效构建企业级智能体(Agent)
企业级智能体高效构建方法论 本文提出了一套系统化的企业级智能体构建框架,包含4大阶段和10个步骤: 明确需求阶段:确定应用场景、目标与验收标准,识别关键干系人和数据来源,产出场景说明书、验收标准和成本清单。 体系架构设计阶段:完成整体技术架构设计,进行关键技术PoC验证,细化核心模块(如AI网关、RAG知识库等)并落地实施。 智能体落地与评估阶段:采用敏捷方式,将系统拆分为可独立验证的子智能体MVP,通过"开发-验证-优化"闭环迭代实现。 运营优化阶段:建立监控机制,实现智能体的持续优化
2025-11-20 13:45:47
848
原创 【无标题】
上海交大刘鹏飞团队提出"上下文工程2.0",将上下文从被动接收的信息转变为可主动设计、加工的结构化对象。研究通过数学形式化定义了上下文集合和操作函数,建立了短期/长期记忆分层框架。2.0版本的核心在于对上下文进行选择、转写、抽象和共享等操作,使其成为可计算的结构对象,而不仅限于token序列。这一理论突破为理解智能系统的语境处理能力提供了新视角,标志着人机交互从被动理解向主动构建语境的范式转变。
2025-11-19 13:45:23
527
原创 深度解析Claude Skills:上下文管理的“开源”与“节流”之道
摘要:Claude Skills的上下文管理机制解析 Claude Skills通过"分层加载+自动回收"机制解决上下文膨胀问题。研究发现: 上层采用"按需加载"(分层加载)策略,只在需要时加载Skill元数据; 底层框架具备"自动回收"能力,能清理临时思考过程(<thinking>模块); 提出"微内核+模块化"架构设计范式,将大Prompt拆分为可动态加载的模块; 这种设计哲学实现了"开源节流"
2025-11-19 13:43:49
1343
原创 RAG的基本使用——基于LangChain
摘要:RAG技术原理与应用 本文介绍了检索增强生成(RAG)技术及其在增强大语言模型知识范围方面的应用。RAG通过检索外部知识辅助大模型生成回答,解决了预训练模型知识有限的问题。文章对比了RAG与微调、提示工程三种技术方案的优势。重点展示了基于LangChain实现RAG的具体流程:文档嵌入、向量存储与相似度检索,并以动漫知识库为案例,演示了从文本处理到最终回答生成的完整过程。代码示例展示了如何使用FAISS向量库和Ollama嵌入模型构建RAG系统,使大模型能回答特定领域问题。
2025-11-19 13:42:50
988
原创 谷歌AI Agent白皮书深读:多Agent协作、AgentOps与企业内网重构新篇章
摘要 谷歌最新发布的《Agents Companion》白皮书揭示了AI Agent技术在企业应用中的关键突破。白皮书聚焦三大方向:多Agent协作系统展现出专业化分工和并行处理的优势,特别适合复杂业务场景;AgentOps框架将传统MLOps扩展至智能体全生命周期管理,确保生产环境可靠性;Agentic RAG技术通过策略性知识调度显著提升搜索质量。白皮书还提出"虚拟承包商"治理模式,通过任务合同明确责任边界,并结合Agentspace平台展示了企业内网重构的新范式。这些进展标志着AI
2025-11-18 11:10:46
289
原创 零基础搞定RAG应用:用LangChain搭建会“读文档”的AI客服!
本文介绍了如何使用LangChain搭建基于RAG(检索增强生成)技术的AI客服系统。主要内容包括:1)通过LangChain的文档加载器读取网页、PDF等不同格式文档;2)使用BeautifulSoup精准提取网页正文内容;3)对长文本进行智能分块处理;4)将文本转换为向量并建立检索系统;5)组装完整的RAG流程链,实现基于文档的智能问答。文章展示了如何让AI准确回答文档中的问题,而不会凭空捏造答案。最后指出RAG技术是企业知识管理的利器,并提供了完整实现方案,只需准备API Key和待处理文档即可搭建文
2025-11-18 11:09:57
337
原创 原来写一个 AI Agent 这么简单
本文介绍了一个简单AI Agent的开发过程,用于管理本地文件。主要内容包括:1)编写三个工具函数(read_file、list_files、rename_file)用于文件操作;2)使用pydantic-ai框架创建Gemini模型实例;3)构建Agent对象并注册工具函数;4)开发基础交互程序;5)改进版本添加对话记忆功能。该Agent能自动调用相应函数执行用户请求,如读取文件内容、重命名文件等,并支持上下文记忆以提高交互效率。最终实现了一个能智能管理test文件夹中文件的AI助手。
2025-11-18 11:09:04
402
原创 深度解读Google Context Engineering中的会话与记忆机制
Google技术白皮书《Context Engineering: Sessions, Memory》揭示了突破性的上下文工程方案,使AI具备长期记忆能力。该系统通过会话(临时工作空间)和内存(长期存储)的协同作用,实现个性化交互。核心创新在于动态构建上下文窗口,包括上下文获取、准备、LLM调用及存储四步循环。关键技术挑战涉及会话压缩策略、内存提取整合及安全隐私保护。该架构标志着从提示工程到上下文工程的进化,为构建真正"懂你"的AI助手奠定了基础,但多代理协作等开放问题仍需探索。
2025-11-18 11:08:26
1252
原创 最详细的 DeepAgents 实战拆解:一次看懂LangChain全新深度智能体框架
本文深入解析了LangChain团队最新发布的DeepAgents框架,该框架基于LangChain 1.0和LangGraph 1.0构建,旨在提升Agent处理复杂任务的能力。DeepAgents通过三大核心机制实现"深度智能体":1) 任务规划机制,通过write_todos工具实现多步骤任务的计划制定与动态调整;2) 虚拟文件系统,提供StateBackend、FileSystemBackend等多种存储后端选择;3) 持久化记忆能力,结合LangGraph Store实现跨会话
2025-11-18 11:07:32
889
原创 上下文工程中的上下文
《上下文工程2.0:上下文工程的"上下文"》这篇论文提出了关于人机交互演进的系统性观点。文章指出,上下文工程并非新生事物,而是伴随机器智能发展二十多年的学科,可分为四个演进阶段:原始计算时代(人适应机器)、智能体时代(机器开始适应人)、人类水平智能时代(人机协作)和超人类智能时代(机器成为启发者)。论文系统阐述了上下文工程的三大技术支柱:收集与存储(多模态信息流、分层存储架构)、管理(分层记忆、上下文隔离、自我烘焙)和使用(动态筛选、共享与主动推理)。最后提出了"上下文语义操作
2025-11-17 11:13:26
326
原创 AI Agent 与 Agentic AI:概念分类、应用与挑战
AI Agent与Agentic AI:差异与应用 本文系统区分了AI Agent和Agentic AI两大范式。AI Agent是由LLM驱动的任务执行者,专注于特定任务自动化(如客服机器人),采用"LLM+工具"的简单架构。Agentic AI则是多代理协同系统,通过专业代理协作完成复杂目标(如软件开发团队),具有分布式认知、持久记忆和动态规划能力。 技术演进上,AI Agent侧重工具调用和短期推理,而Agentic AI采用多代理集群、高级规划算法和协调层设计。应用场景显示:AI
2025-11-17 11:11:47
387
原创 企业落地 RAG 系统优化手段全攻略
本文详细介绍了企业落地RAG(检索增强生成)系统的优化方法。首先指出RAG系统常见问题是检索不准、不全和生成不稳,优化需围绕检索器、索引分块和生成器三个核心环节展开。在检索器优化方面,建议采用混合检索和两阶段检索策略提升精度。索引分块优化强调精细化切分和知识组织方式升级。生成器优化则注重Prompt工程和后处理机制。此外,还介绍了系统级优化和前沿方向,如GraphRAG和多模态RAG等。最后针对企业落地常见问题提供了具体解决方案,包括降低幻觉、向量库调优等实用建议。全文为企业构建高效RAG系统提供了全面指导
2025-11-17 11:10:39
242
原创 Transformer如何颠覆传统时间序列预测
从简单的移动平均到复杂的Transformer架构,时间序列预测的技术演进之路清晰地展现了我们对“时间”这一维度理解的不断深化。Transformer通过其强大的自注意力机制,成功解决了传统方法在处理长期依赖和复杂模式上的诸多瓶颈,并通过一系列精巧的定制化设计,更好地适应了时间序列数据的独有特性。然而,技术的发展永无止境。预测效率、可解释性以及与大模型的结合,依然是摆在我们面前的重要课题。
2025-11-14 11:41:03
943
原创 MCP-简介
Model Context Protocol :模型上下文协议,标准化了应用程序向LLM提供上下文的方式。这是一项革命性的开放标准,旨在改变人工智能与世界互动的方式。anthropic公司11月26号发布的API标准,该公司成立于2021年,旧金山,创始人是两兄妹都从openAI出来的。因为坚持扩展假设和安全性的重要性与openAI理念不合。11月22日亚马逊追加投资40亿美元,亚马逊对Anthropic的总投资额达到80亿美元。Anthropic需要使用亚马逊旗下的芯片训练和部署AI模型。
2025-11-14 11:39:43
856
原创 这次,LLM黑盒被LLM打开了~
摘要:随着大语言模型(LLM)能力提升,其内部机制却日趋不透明。新兴的"概念描述"方法通过另一个LLM自动生成自然语言解释,揭示神经元、注意力头等组件的功能,突破了传统固定标签集的局限。当前技术涵盖从单个神经元到完整电路的多层次描述,但面临多语义性、评估标准等挑战。趋势显示研究正转向稀疏自编码器特征,并引入因果干预验证。尽管概念描述为理解LLM提供了新视角,仍需结合人类验证建立可靠解释体系。(149字)
2025-11-14 11:38:47
965
原创 2025最全的长达126页大模型强化学习综述
《2025大模型强化学习综述:进展与应用全景》摘要 这篇126页的综合报告系统梳理了强化学习在大型推理模型(LRMs)中的最新研究进展。研究通过文献综述方法,详细分析了RL在LRMs中的核心技术组件(奖励设计、策略优化、采样策略)及其交互机制,并对比了PPO、GRPO等主流算法的特性与应用场景。报告特别探讨了RLHF与RLVR两种训练方法的差异,揭示了强化学习在提升模型推理能力和人类对齐效果方面的独特优势。同时,研究还指出了该领域现存的核心争议与发展挑战,为AI大模型研究者提供了全面的技术参考和发展趋势分析
2025-11-14 11:37:57
1038
原创 突破大模型Token限制的完整技术方案
突破大模型Token限制的司法应用方案 本文探讨了突破大模型Token限制的技术方案在司法文书处理中的应用挑战与解决方案。主要内容包括: 问题概述:司法文书平均20万字远超GPT-5(128K)等模型的处理能力,专业术语和复杂法律关系的分析需求加剧了这一挑战。 技术瓶颈:Transformer架构的O(n²)计算复杂度使处理10万字案卷需要1.4TB显存,远超当前硬件能力。 司法特殊需求:证据链完整性、法条精确引用、时间连贯性和多方关系网络等要求传统截断方法完全失效。 五种解决方案: 滑动窗口:简单但易丢失
2025-11-13 17:32:17
1436
原创 LLM 工具调用(Tool Calling)技术详解:原理、实践与关键问题解析
文章摘要 本文深入解析了LLM工具调用(Tool Calling)技术的原理与实践,重点探讨了这一技术的双重属性:既是模型自身能力的体现,也依赖于推理引擎的接口支持。文章首先明确了Tool Calling的本质在于连接大模型与现实世界,然后详细阐述了其完整工作流程,包括意图识别、工具选择、参数提取、工具执行和结果整合五大环节。通过OpenAI API的股票查询示例,展示了工具定义规范和实际代码实现。最后指出了函数命名、描述清晰度和参数定义等关键注意事项。全文系统地揭示了如何通过Tool Calling技术扩
2025-11-13 17:31:26
413
原创 面向 LLM 的 GPU 系统工程方法论
摘要:本文提出面向LLM的GPU系统工程方法论,强调系统设计能力比内核开发更重要。作者将大模型开发分为五层架构:模型定义层关注计算与内存优化;并行化层解决多卡通信问题;运行时编排层优化集群资源调度;编译优化层提升推理效率;硬件层处理物理瓶颈。建议开发者自上而下逐层排查问题,仅在最必要时才深入底层优化,指出90%的性能问题可通过系统设计解决,而非直接编写内核代码。该方法论旨在帮助工程师建立整体系统思维,避免过早陷入局部优化。
2025-11-13 17:30:15
239
原创 从ReAct到Multi-Agent:LangGraph如何实现智能体间的无缝协作?
LangGraph实现了多智能体系统(Multi-Agent)的无缝协作,将AI应用从简单的问答机器人升级为复杂的协作系统。智能体(Agent)作为具备感知、决策、行动和学习能力的自主实体,通过多智能体架构克服单体智能体在工具过载、上下文负担和领域专精方面的瓶颈。LangGraph支持五种典型架构,包括全连接网络、监督者模式、层级结构和自定义工作流等,其中监督者模式是最常用的起点。系统通过Command机制实现智能体间的显式交接,支持直接Command交接、交接工具和预构建ReAct智能体三种模式。状态设计
2025-11-13 17:29:19
270
原创 两周,如何快速入门Agent开发
本文分享了作者从零开始学习Agent开发的经验历程。作者最初被Agent技术吸引,选择Python和LangChain框架入门。通过AI辅助快速掌握了Python基础,系统学习了LangChain的核心模块(Prompt模板、工具、记忆等)后,两周内就具备了Agent开发能力。作者指出当前AI行业前景广阔,Agent开发岗位薪资可观,建议学习者通过实际项目(如聊天机器人、知识库系统)积累经验。文章最后提供了大模型学习资源,强调行动比理论更重要,"AI不会替代你,但会替代不愿学习的你"这一
2025-11-13 17:28:35
509
原创 智能体同工作流的关系和区别
本文对比分析了智能体(Agent)和工作流(Workflow)的核心区别:工作流是固定流程的自动化执行(如订单处理),按预设步骤运行;智能体则具备自主决策能力(如购物助手),能根据环境动态调整流程。关键差异在于自主性(智能体高,工作流低)、灵活性(智能体可处理模糊需求)和应用场景(工作流适合标准化任务)。两者的关系是智能体可将工作流作为执行引擎,实现"动态决策+固定执行"的协作模式。文章通过Go代码示例和顺序图直观展示了两种模式的运作机制。
2025-11-12 17:51:51
833
原创 大小语言模型协同改变未来
摘要:大小语言模型协同正成为AI发展的新趋势。大模型擅长复杂推理,而小模型轻量高效,二者结合可实现成本优化、专业定制和混合推理。这种协同方式不仅能提升AI效率与可持续性,还能扩展部署范围并增强隐私安全。前沿技术如状态空间模型、知识蒸馏等进一步推动了小模型的发展。当前经济形势下,AI大模型领域仍呈现向上趋势,为从业者提供了新的发展机遇。(143字)
2025-11-12 17:50:29
295
原创 AIO Sandbox:为 AI Agent 打造的一体化、可定制的沙箱环境
AIO Sandbox 是一个为 AI Agent 设计的统一沙箱环境,通过 Docker 镜像整合了浏览器、代码执行、文件系统等能力,解决了传统多沙箱方案的环境割裂问题。该平台提供开箱即用的标准功能,支持工具扩展和镜像定制,满足不同 AI Agent 的个性化需求。其核心特性包括浏览器集成(支持 CDP、视觉操作)、秒级启动、人工接管支持、代理转发和安全鉴权。通过统一环境简化了数据交换流程,提升了 Agent 任务执行效率,适用于多种垂直领域场景的 AI 应用开发。
2025-11-12 17:49:33
801
原创 为什么越来越多企业开始做 AI Agent工作流平台?
过去一年,AI Agent 和工作流(Workflow)赛道简直是“神仙打架”。从字节的 Coze(扣子)到 n8n,再到前阵子 ChatGPT 开放的 AI 生成工作流,各种平台层出不穷。但你有没有发现一个现象:这些工具虽然很火,但大多是“玩具”,或者个人开发者在用。在 B 端(企业)场景,一说一,你非常少见到它们的身影。所以有时候你会看到,真正在 B 端跑起来的工作流产品,反而是我们没怎么听说过的,但它们却拳拳到肉,专为企业场景设计。
2025-11-12 17:44:43
620
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅