自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(492)
  • 资源 (2)
  • 收藏
  • 关注

原创 20张图全面剖析 AI 大模型应用工程化技术架构

RAG 与相关技术对比 → 多 AI 智能体设计模式 → AI 智能体评估框架 → AI 智能体协议比较 → AI 智能体设计模式 → 技术对比分析 → AI 智能体未来趋势 → 大语言模型类型 → 真假 AI 智能体架构 → Agentic RAG 技术 → AI 智能体系统分解 → 开发步骤 → 专业术语 → MCP 与 A2A 工作流 → RPA 与 AI 智能体区别 → 记忆系统蓝图 → RAG 架构设计 → 提示词与上下文工程。1、AI 智能体 90% 工程优化工作,10% AI 技术。

2025-08-21 08:01:32 151

原创 7种 RAG AI 智能体架构设计剖析

这些 AI 智能体在医疗等受监管、高风险的环境中特别有帮助,因为答案在过程中可能会改变。企业在实际业务场景落地中,发现许多这些 AI 智能体不仅仅是检索文档——它们还会采取行动。根据微软研究,像这样的多步骤查询对于标准聊天机器人来说可能需要3-5倍的时间——但查询规划智能体将响应时间缩短了40%。这种分层方法就是为什么现代 AI 感觉更智能的原因——它不仅仅是检索答案,而是在幕后协调一个专业智能体团队。:决定查询应该去哪里——内部数据库、外部 API,还是两者都去——就像一个电话接线员在引导电话。

2025-08-20 08:01:24 788

原创 基于 AI Agent 的操作系统架构设计详解

每个模型都有其自身的优势,内核会选择合适的一个(或组合)来完成任务。它不会只向你展示静态的银行对账单, 你的财务代理会持续跟踪交易,发现不寻常的支出,提出优化建议,甚至在后台执行安全的资金重新分配(例如将闲置现金转移到高利率账户)。如果今天的应用程序就像建筑物中的孤立房间,那么 AI 原生应用程序就像一个开放的单层空间中流动的空间,能够在无需您穿过门的情况下传递对象、低语信息和重新排列自己。:你的 AI 文档编辑器可能会在你未打开它的情况下开始总结你保存的新研究论文,因为它在你的日历中看到了一个截止日期。

2025-08-19 08:01:48 654

原创 图解8种 RAG 架构设计

简单 RAG、多模态 RAG、HyDE、校正型 RAG、图 RAG、混合 RAG、自适应 RAG、智能体型 RAG。使用具有规划、推理(ReAct、CoT)和记忆能力的 AI 智能体来协调从多个来源的检索。非常适合跨模态检索任务,比如:用文本查询来获取既有文本又有图像上下文的答案。确保信息是最新的并且准确的,在传递给大语言模型之前会过滤或纠正检索到的内容。将复杂的查询分解为更小的子查询,以提高覆盖范围和准确性。最适合简单的、基于事实的查询,直接语义匹配就足够了。在一个流程中结合密集向量检索和基于图的检索。

2025-08-18 08:22:07 384

原创 AI 智能体到底是如何工作的?

本文是关于 AI 智能体的工作原理,我用了一个很形象的比喻——把 AI 智能体比作一个五层蛋糕,每一层都有特定的功能,信息在这些层之间流动,就像一个组织良好的协作团队一样。下次你和 AI 智能体聊天时,记得信息在这些层之间复杂地流动--这一切都是为了帮助你回答关于明天天气的简单问题,或者帮你写一封你一直拖延的邮件。:未来的 AI 智能体将记住更多你对话中的内容,就像一个好朋友会记住你的偏好和过去的讨论一样。这一层的工作就像餐厅经理,他接收你的点餐请求,并决定让哪些厨师来处理你点餐的不同部分。

2025-08-15 08:01:44 797

原创 12张动图全面剖析 MCP/RAG/Agent/Cache/Fine-tuning/Prompt/GraphRAG 等核心技术

因此,在检索过程中,由于余弦相似度高于实际包含答案的文档,会检索到几个不相关的块。使 LLM 应用如此强大的不仅仅是它们准确预测下一个 token 的能力,还有它们通过推理得出答案的能力。图 RAG 通过图结构使其更加健壮,这有助于它构建长距离依赖关系,而不是 RAG 中发生的局部文本分组。专家混合模型(MoE)是一种流行的架构,它使用不同的“专家”来改进 Transformer 模型。好了,这就是我今天想分享的内容。这张图解释了 AI 智能体的 5 个级别——从简单的响应者到完全自治的 AI 智能体。

2025-08-14 08:02:25 475

原创 AI 智能体的记忆系统架构设计和落地实现

为了构建能够学习、进化和协作的 AI 智能体,真正的记忆不仅仅是有益的--它是必不可少的。它是关于构建一个持久的内部状态,这个状态会随着每一次 AI 智能体的互动而发展,并影响每一次互动,即使是在几周或几个月之后。不仅仅是响应的 AI 智能体 - 记住、学习和与你一起成长的 AI 智能体将获胜。实际上,今天的大多数 AI 智能体是无状态的,无法从过去的互动中学习或随着时间的推移进行适应。要从无状态工具转变为真正智能、自治(有状态)的 AI 智能体,我们需要赋予它们记忆,而不仅仅是更大的提示词或更好的检索。

2025-08-13 08:00:56 921

原创 基于 MCP 实现 AI 智能体的新架构设计

我们说的是能够为我们主动做事的 AI:自动化复杂的工作流程、管理复杂的项目,甚至作为一个超级高效的个人助手,贯穿我们所有的数字工具。几年后,如果你的 AI 智能体感觉像一个真正的团队成员,而不仅仅是一个带有工具的鹦鹉学舌者,那是因为有人在幕后加入了一些 MCP 魔法。由于交互是通过协议结构化和定义的,因此更容易记录、监控和控制 AI 智能体的行为,确保它们在规定的边界和权限内运行。因此,你的日历应用可以告诉 AI:“嘿,我可以创建事件、检查你的可用性并列出你的预约”,以 AI 能够理解的格式呈现。

2025-08-12 08:04:19 868

原创 AI 智能体工作流5种架构设计模式剖析

AI 智能体工作流程的美妙之处在于它们的模块化以及将这些不同类型的 AI 智能体结合起来构建极其强大和自主系统的可能性。通过允许多个 AI 智能体利用各自的能力并共同实现目标,为复杂、分布式任务提供了强大而灵活的问题解决能力,通常展现出涌现智能。分层 AI 智能体将一个大问题分解为更小的部分,并将这些部分分配给专门的子 AI 智能体,每个子 AI 智能体都负责工作的一部分。通过将复杂问题分解为可管理的部分并利用专门的专长,为 AI 智能体自主性提供了一种结构化和可扩展的方法,从而能够应对高度复杂的问题。

2025-08-11 08:01:09 834

原创 2025 年 AI 大模型应用面试必问的 10 个 架构设计题

第一步是优化检索器,确保它能够浮现出真正相关的段落——可以使用像 Contriever 或 ColBERT 这样的密集检索器,并在特定领域数据上进行微调。然后,在生成方面,应用受限解码技术(如复制机制或带有 top-p 限制的核采样),以防止模型编造未经支持的信息。生物医学查询需要专门的理解,所以首先将基础模型替换为像 BioBERT 或 SciBERT 这样的模型,它们是在领域语料库上预训练的。实施人工参与的验证系统,对标记的生成内容进行审查和纠正,并将这些纠正纳入每周或每月的更新周期。

2025-08-10 08:01:39 833

原创 AI 智能体记忆机制和架构设计详解

目前,像 Spring AI Alibaba、LangChain、LangGraph、LlamaIndex 和 CrewAI 这样的现代开发框架,已经内置了从简单的缓存(buffers)到复杂的长期检索器(long-term retrievers)等各类记忆系统,相关技术正以惊人的速度迭代发展。如今,AI 助手不仅能记住上周的对话,还能想起你的喜好,并且会从长期的互动中不断学习。这是 AI 智能体短期使用的临时工作区,存储当前任务所需的即时信息,例如用户设定的实时目标或刚调用的工具的输出结果。

2025-08-08 08:00:51 908

原创 构建多模态 Agentic RAG 架构设计与代码实现

将所有内容整合到一个简洁的 Streamlit 界面中,并使用 Beam(开源)将应用部署到无服务器容器中。部署完成后,我们将获得一个 100% 私有的多模态 Agentic RAG 流程部署。AssemblyAI 不是开源的,但它提供很多免费的转录额度,足以满足这个演示的需求。将上一步转录的文本数据和输入的文本数据嵌入到 Milvus 向量数据库中。使用 AssemblyAI 的语音转文字平台将用户的音频输入转录成文字。以上就是构建自己的多模态 Agentic RAG 的方法。

2025-08-07 08:01:29 406

原创 64张图全面剖析 AI 智能体的架构设计和关键技术

什么是LLM智能体、记忆、短期记忆、长期记忆、工具、Toolformer、模型上下文协议(MCP)、规划、推理、推理与行动、反思、多智能体协作、人类行为的交互式仿真、模块化框架。这些多智能体系统通常由专业化的智能体组成,每个智能体都配备了自己的一套工具,并由一个主管监督。主管管理智能体之间的通信,并可以为专业化的智能体分配特定的任务。使用“增强型” LLM,智能体可以通过文本输入(因为 LLM 通常是基于文本的模型)来观察环境,并通过使用工具(比如:搜索网络)来执行某些动作。

2025-08-06 08:01:43 968

原创 构建靠谱的 Agentic RAG 工作流架构和落地实践

查询引擎从 Milvus 中获取上下文,将其与查询结合,然后发送给 LLM 以获取回答。一切准备妥当,是时候激活我们的工作流了。之后,我们启动工作流。现在,是时候设置并使用我们上面定义的两个查询引擎作为工具了。我们的 AI 智能体将智能地将查询路由到正确的工具。接下来,我们通过几行代码将 Cleanlab Codex 集成进来,以评估和监控 RAG 应用。自然语言到 SQL 引擎可以将普通查询转换为 SQL 命令,从而实现轻松的数据交互。一切准备就绪后,让我们创建我们的 Agentic 路由工作流。

2025-08-05 08:01:25 854

原创 AI 智能体的8种记忆系统架构设计与落地

当对话长度达到阈值,用 LLM 把早期内容提炼成 1~2 句摘要,再与近期对话拼接。晋升词:先列 50 个高频“记住/生日/密码”,每周 TF-IDF 补新词。晋升机制:出现“记住/总是/我生日”等关键词或高相关性即写入长期库。融合权重:长期 0.4 +短期 0.6 起步,前言不搭后语就涨长期。把“实体-关系-实体”抽成三元组,存成图,查询时可多跳推理。建议在前端加个“展开历史”按钮,用户可手动查看更早对话。对中文关键词、实体识别要求高,轻量模型容易翻车。对中文口语可强制要求“保留所有数字、专有名词”。

2025-08-04 08:03:08 808

原创 浅显易懂的上下文工程技术指南

别再死磕“提示词魔法”了--现在决定 AI 能不能干好活的,是你能不能把“该给它的背景、工具、格式”一次性喂对。大多数 AI 智能体(或大语言模型应用)之所以失败,并不是因为大模型本身不好,而是因为它们缺乏成功所需的正确上下文。:搭一个动态系统,自动把各种来源的信息、外部工具、用户偏好整合好,再按 LLM 最容易理解的格式送进去。:简单明了的错误提示,总是比一大堆复杂的代码(比如:JSON 格式的长串内容)更容易让人看懂。,因为它解决了真正的瓶颈问题,这个瓶颈不是大模型的能力,而是信息架构的搭建。

2025-08-03 08:03:11 274

原创 AI 智能体应用落地八层技术架构剖析

Dynatrace 在其平台上推出 AI 智能体,以帮助企业预测系统问题、增强安全性和以更大的自主性自动化运营,这表明企业对 AI 智能体 的采用正在增加。AI 智能体架构应包含能够体现 AI 智能体核心要素的组件:意图性(规划)、前瞻性、自我反应性和自我反思性,这需要在所有层级之间进行谨慎的整合。:分析用户行为模式、偏好和反馈,以定制 AI 智能体的响应和行动。:让 AI 智能体能够连接到庞大的结构化和非结构化信息库,使它们能够访问实时数据、历史记录和特定领域的专业知识,以支持它们的决策过程。

2025-08-02 02:22:17 1017

原创 基于 MCP 实现 AI 大模型应用新架构设计以及新开发模式

MCP(模型上下文协议,Model Context Protocol)是由Anthropic(Claude 的开发公司)开发的开源协议,旨在为大语言模型(LLM)提供一种标准化的方式,以便它们能够连接到外部数据源和工具。它就像是 AI 大模型应用的“通用接口”,帮助开发者构建更灵活、更具上下文感知能力的 AI 大模型应。这些举措共同构建了一个基于 MCP 的 AI 大模型应用新架构设计和新开发范式,推动了 AI 大模型应用的高效开发与部署。,这是每个人都需要掌握的 AI 大模型新架构设计新技能,

2025-08-01 08:02:57 227

原创 AI 智能体企业落地,其实90%都是工程架构设计,只有10%才是真正的 AI 大模型

CPU/GPU 提供商层、基础设施/基础层、数据库、ETL(提取、加载、转换)层、基础模型层、模型路由层、AI 智能体协议层、AI 智能体编排层、AI 智能体认证层、AI 智能体可观测层、工具层、认证层、记忆层、前端层。CPU/GPU 提供商层、基础设施/基础层、数据库、ETL(提取、加载、转换)层、基础模型层、模型路由层、AI 智能体协议层、AI 智能体编排层、AI 智能体认证层、AI 智能体可观测层、工具层、认证层、记忆层、前端层。定义 AI 智能体之间的交互和通信方式。

2025-07-31 08:04:57 771

原创 基于 MCP 的 AI 智能体应用新架构设计新范式剖析

传统开发模式下,每个 AI 智能体都需要独立寻找接口、解析数据、编写适配代码,导致开发效率低下、重复工作量大,严重限制了 AI 智能体应用的规模化发展。AI 智能体架构设计新范式应运而生,它通过标准化的协议和高效的协同机制,为 AI 应用的开发和部署带来了全新的架构设计思路和落地方法。MCP:跨模型通用的“USB-C”接口,零绑定,全球可复用,MCP 建立在 Function Calling 的能力基础之上。未来企业的 AI 竞争力,取决于在新的架构设计新范式下 MCP Server 的丰富度和拼装速度。

2025-07-30 08:04:03 452

原创 MCP 企业级落地案例架构设计和落地实战

对于每个工具,MCP 都会调用相应的 Weather API 接口,这些接口就是普通的 HTTP 接口,类似这里的的 API:https://api.weather.gov。Weather API 的响应会按相反的顺序返回,首先到达 MCP 服务器,然后是 MCP 客户端,最后到达 Claude 桌面应用。”这个问题,需要调用。虽然 MCP 显著增强了 AI 的能力,但它也带来了新的安全威胁,我们在另一篇文章中再讨论安全问题。(经度),LLM 知道它需要提供纽约的坐标,这些坐标它从训练数据中已经知道了。

2025-07-29 08:01:32 903

原创 Claude Code 遭深度逆向工程! AI 编程智能体核心架构设计曝光

这里不是零散的插件集市,而是一座按职能分区的武器仓库:文件读写、Shell 执行、网络探测、MCP 对接、性能诊断……于是,Claude Code 从不召唤一位“万能助手”大包大揽,而是为每个需求瞬间孵化一个最小权限的“子 Agent”,精确投放、用完即焚。不在于调了几个工具,而在于它让这些 Agent 之间的协作,变成了“实时的、稳态的、动态可控”的过程。没有云端同步,也没有神秘黑盒,只靠本地文件、压缩算法、状态缓存,拼出一套“像人一样的记忆”。你的语言偏好、目录习惯、常用工具等“人设”数据写死在这里;

2025-07-28 08:03:18 1534

原创 从 DeepSeek R1 到 Kimi K2 8种大模型架构设计剖析

当然,细节上还是有不少改进的,比如:位置编码从固定的变成了旋转的(RoPE),注意力机制从多头注意力(Multi-Head Attention)换成了更省算力的分组查询注意力(Grouped-Query Attention),激活函数也从 GELU 换成了更高效的 SwiGLU。可以看到,Kimi 2 在 MoE 模块中使用了更多的专家,而在 MLA 模块中使用了更少的头,这些调整使其在处理长上下文时更加高效。而在推理时,由于只激活少数专家,模型能够保持高效的计算性能,适合需要快速响应的应用场景。

2025-07-26 08:03:02 593

原创 多 AI 智能体技术架构设计演进剖析

当前,所有上下文都是基于用户输入启动的,但组织需要持续运转,并实时调整数据输入和反馈。目前,环境感知在 AI 智能体上的应用还比较少,但未来 AI 智能体协作的形态应该是持续运营状态,基于持续的数据输入对自身进行迭代。目前,所有工具调用可能各自有独立的沙箱板,而 MCP 作为一个通用接口,使得所有工具都能接入,从而提高了兼容性和灵活性,MCP。对于 AI 智能体协作来说,达到企业级别的 AI 智能体会自行通过决策,在已有基础上创建新的 AI 智能体来适应变化,并在持续的外部数据输入后进行更新迭代和编排。

2025-07-24 08:01:58 697

原创 从“人”开始,AI 大模型高效转型指南

是成功采用 AI 的关键。毕竟,再好的 AI 系统,如果没人使用,也是毫无用处的。通常,特定的用例会从用户反复使用的提示中产生——例如,一位营销人员收集了一个他用来完善内容的提示组件库。就像 Leila 一样,他也是公司中最早的 AI 热衷者之一,他的库被用来为其他部门构建一个方便的工具。当然,所有这些与人相关的工作都是与技术建设同时进行的——数据准备、与领域专家共同创造,以及与数据科学的一些健康辩论。她是一位 AI 领军人物,成功克服了诸多与人相关的挑战,最终引领公司走上了 AI 落地的正确道路。

2025-07-23 08:01:43 673

原创 基于 LangGraph 构建 Open Deep Research 架构设计与落地实践

一个多 AI 智能体方法允许多个子 AI 智能体并行运行,每个子 AI 智能体都致力于一个独立的、专注的任务。每个子 AI 智能体完成研究后,会进行一次最终的 LLM 调用,以撰写对子问题的详细回答,同时考虑其所有研究内容并引用有用的来源。此外,还有很多开源的实现版本。主管会判断研究简报是否可以分解为独立的子主题,并将这些子主题分配给子 AI 智能体,每个子 AI 智能体都有独立的上下文窗口。如果没有足够的上下文工程,我们的 AI 智能体很容易遇到上下文窗口限制,从长的、原始的工具调用结果中。

2025-07-22 08:03:51 564

原创 Manus 揭秘自己的7大核心技术:上下文工程架构设计与落地经验

由于 LLMs 的自回归特性(模型按顺序生成 token,每个 token 的生成都依赖于之前的所有 token),即使是单个 token 的差异也可能使该 token 之后的缓存失效。在每次迭代中,模型根据当前上下文从预定义的动作空间中选择一个动作,并在环境中执行(比如:Manus 的虚拟机沙盒环境,用于确保代码安全运行),从而产生观测结果。比如 :在使用 Manus 协助审阅 20 份简历时,AI 智能体可能会陷入一种惯性节奏,仅仅因为它在上下文中看到了类似的行为,就不断重复相似的动作。

2025-07-21 08:03:11 703

原创 OpenAI 最新发布 ChatGPT Agent 架构设计剖析

ChatGPT Agent 整合了 Operator 的网页操作能力、Deep Research 的信息综合能力以及 ChatGPT 的对话能力,形成了一个“三位一体”的强大 AI 智能体系统。按照您的指示,ChatGPT 将为您完成这些工作,从而加快您的工作进度,同时释放您的时间,让您能够专注于一天中的其他事务。ChatGPT Agent 会自动搜索指定的竞争对手,访问官网、新闻报道和财务报告,提取关键信息,生成包含图表和数据对比的 PPT,并提供可编辑文件供用户完善。

2025-07-20 08:02:42 730

原创 AI 智能体应用的向量数据库如何选型?

从 Elasticsearch、Milvus、腾讯云向量数据库、PG Vector 到 Qdrant,再到 AWS 最新发布的 S3 Vector,市场上的选择令人眼花缭乱。只要一条 import,就能把 OpenAI、Claude、Qwen 的 Embedding 写进库里,并直接在 LangChain / LlamaIndex / Dify 里做 RAG--做不到就换。向量数据库功能侧的选型,我们从“能不能接”、“能不能跑”、“能不能打” 、“能不能撑”四个方面来展开剖析。

2025-07-19 08:01:37 694

原创 基于 LangChain 6步构建企业级 AI 智能体应用

从挑选企业业务场景开始,构建最小可行性产品(MVP),再到测试 AI 智能体应用的质量和安全性,最后到生产中的部署运维等全方位带你基于 LangChain 6步构建一个 AI 智能体应用。对于我们的电子邮件 AI 智能体,这可能意味着只专注于根据紧急程度和意图对电子邮件进行分类(比如:会议请求、支持问题),因为这是 AI 智能体其余部分所依赖的基础步骤。然后,编写编排逻辑以将正确的数据连接到你的提示词中。一旦大模型在你的测试用例推理中始终正确,你将有信心核心逻辑是可靠的,并且有一个坚实的基础可以建立。

2025-07-17 08:03:17 741

原创 AI 智能体应用架构设计全流程剖析:一次请求到底经过了哪些关键步骤?

MCP 协议虽然标准了 AI 智能体和工具的通信,但是依然有很多增量的 MCP Server 以及大量存量的企业级业务 API,还有海量的数据库,这么多数据工具需要有一个统一管理的服务,用于高可用、统一路由、协议转换、访问鉴权等工作,那么这就是 MCP 网关层存在的原因。在企业落地 AI 智能体应用的过程中,会使用到很多模型:大模型、小模型,这么多模型异构性、模型上下线、高可用、Failover、动态切换等操作需要对 AI 智能体业务逻辑层透明,因此就需要 AI 网关层统一的代理。

2025-07-16 08:01:46 850

原创 AI 智能体架构企业级落地的工程化能力设计

同样,基于“万物皆 AI 智能体”的思路,MCP 工具服务也可以抽象成一个 AI 智能体,并且可以在这一层做一些额外的事情,比如:鉴权、参数校验等。对于 MCP 中心来说,可以通过一些更通用的工程化手段来处理,比如:在服务发现的末端,基于用户的请求前置过滤一些与本次无关的工具,可以通过向量相似性或 LLM 来处理。在 AI 大模型时代,架构设计主要包括:AI 智能体的抽象定义、Tool 的抽象定义、业务 Prompt 的设计、业务数据的供给、经过微调的大模型以及完整的评测集。

2025-07-15 08:01:43 1001

原创 AI 大模型应用20张架构图大全

5、面向过程的云原生架构设计 VS 面向目标的 AI 原生架构设计。7、AI 智能体 ReAct 架构设计模式。4、AI 大模型应用企业落地混合架构设计。11、Agentic RAG 架构设计。16、Fine-tuning 架构设计。1、AI 大模型应用技术体系全景视图。代码解释器 AI 智能体系统架构设计。AI 大模型应用架构设计的全貌。8、AI 智能体记忆系统架构设计。3、AI 大模型技能知识地图。15、AG-UI 架构设计。6、AI 智能体架构设计。带来大家从上帝视角了解。

2025-07-14 08:03:02 265

原创 AI 智能体应用架构设计的12条核心原则解读

随着上下文的增长,大语言模型更容易迷失方向或偏离重点。通过将 AI 智能体的功能限定在特定领域(3-10个步骤,最多20个任务步骤),我们可以保持上下文窗口的可管理性,从而确保大语言模型的高效运行。它循环执行以下操作,直至 LLM 返回终止信号(比如:标记为“Terminal”的工具调用或自然语言响应):将 switch 语句的执行结果加入上下文窗口,并让 LLM 决定下一步动作。这两个工具为例,让大语言模型(LLM)“调用工具”,本质上是让它输出一个可解析的 JSON 对象,该对象对应要执行的具体操作。

2025-07-13 08:01:44 735

原创 AI 智能体架构中的协议设计三部曲:MCP → A2A → AG-UI

它们让 AI 智能体能够“长出手脚”(通过 MCP 实现操作能力)、拥有协作伙伴(通过 A2A 实现 AI 智能体之间的协作),并且能够通过 AG-UI 与用户直接交互,实现落地应用。这三个协议推动了 AI 智能体应用系统从单一 AI 智能体向多 AI 智能体 的进化,不仅提升了底层能力,还优化了上层的用户体验。AG-UI 明确且专门针对 AI 智能体-用户交互层。这并不意外,因为谷歌将处于最佳位置,能够索引全球所有可用的 AI 智能体,可能创建一个类似于当前搜索引擎索引的全球 AI 智能体目录。

2025-07-12 08:03:49 737

原创 AI 大模型应用架构演进: LLM → RAG → AI Workflow → AI Agent

系统阐述了 AI 大模型应用架构演进的四个核心阶段:从最基础的纯 LLM 架构,到增强检索能力的 RAG 系统,再到具备工具调用能力的 AI 工作流,最终发展为具有自主决策能力的 AI 智能体。与 AI 工作流不同,后者需要明确的用户触发器(比如:点击按钮)并且必须遵循预设的路径,AI 智能体可以自主启动工作流,并动态决定各个环节的执行顺序和组合方式。我和团队有幸参与了各种复杂度的 LLM 项目,从简单的提示词工程到链式思考推理,从基于 RAG 的架构到复杂的工作流和自主 AI 智能体。

2025-07-11 08:02:11 304

原创 基于多智能体协作的 AI 搜索新架构设计

随着机器学习的发展,搜索引擎引入了 Learning-to-Rank 技术,通过综合网页权威性、点击率、内容质量等上百种特征,对搜索结果进行更精准的排序。这将极大增强基于多智能体协作的 AI 搜索新系统的透明度与用户信任,为 AI 搜索在医疗、金融、教育等高敏感领域的落地奠定基础。因此需要一个模块化、多智能体协作的 AI 搜索系统,模拟人类信息处理与决策过程,具备更强的推理、规划和工具使用能力。这组数据充分说明,在面对复杂问题时,多智能体协作框架带来了质的飞跃,显著提升了搜索系统的理解力与回答质量。

2025-07-10 08:01:44 819

原创 AI 智能体记忆架构在 LangGraph 中的落地实现

对于 AI 智能体,程序性记忆是模型权重、AI 智能体代码和 AI 智能体提示词的组合,这些共同决定了 AI 智能体的功能。通过将这些内容存储在图的状态中,AI 智能体可以访问给定对话的完整上下文,同时保持不同线程之间的分离。对于 AI 智能体(AI Agent)来说,记忆非常重要,因为它能让 AI 智能体记住之前的交互,从反馈中学习,并适应用户的偏好。例如,记忆可以是一个单一的、不断更新的“用户画像”,其中包含关于用户、组织或其他实体(包括 AI 智能体本身)的范围明确且具体的信息。

2025-07-09 08:04:12 980

原创 上下文工程:AI 智能体架构落地的关键新技术

如果是 AI 智能体的运行时状态的一部分,则开发人员可以选择在每一步将状态的哪些部分暴露给 AI 智能体。Anthropic 的多智能体研究员为这种方法提供了依据:具有隔离上下文的多个 AI 智能体通常优于单个 AI 智能体,主要是因为每个子 AI 智能体的上下文窗口可以分配给更狭窄的子任务。然而,多 AI 智能体的挑战包括 token 使用(比如:Anthropic 报告的比聊天多15倍的 tokens)、需要精心的提示词工程来规划子 AI 智能体的工作,以及子 AI 智能体的协调。

2025-07-08 08:02:49 707

原创 RAG-MCP 新架构设计解决大模型提示词膨胀的工具选择问题

简单来说,检索的作用就是在正确的时间提供正确的工具,从而减轻模型的决策负担。:与传统的 MCP 客户端(比如:Claude 或早期的 GPT-4 集成)不同,它们在交互之前必须实例化所有已注册的 MCP 服务器,而 RAG-MCP 仅激活所选的 MCP,降低了启动成本,并能够在没有基础设施瓶颈的情况下支持任意大的工具集。总体而言,这些发现表明,检索增强的 MCP 选择有效控制了提示词膨胀,提升了大语言模型(LLM)的工具选择可靠性,使 RAG-MCP 成为可扩展外部工具集成的理想方案。

2025-07-07 08:04:05 350

搜索入门搜索入门资料,绝对值得看!!!!!

搜索入门资料,绝对值得看!!!!!搜索入门资料,绝对值得看!!!!!搜索入门资料,绝对值得看!!!!!搜索入门资料,绝对值得看!!!!!

2008-09-18

JDK/Eclipse/Tomcat/Mysql/JDBC使用

JDK/Eclipse/Tomcat/Mysql/JDBC使用

2009-11-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除