- 博客(329)
- 资源 (2)
- 收藏
- 关注
原创 从“个人高效”到“团队飞跃”:Prompt商城
3. 开展一次“协同实验”:在团队的一次会议或一个短期项目中,引入1-2个工具,解决一个具体的协作痛点(如会前资料阅读、会议决策记录)。在团队协作的关键摩擦点(信息同步、决策拍板、成果汇总)上,预先部署好AI工具,就像在交通枢纽建立立交桥,能让团队能量的“流通效率”倍增。未来的竞争,不是个体天才的竞争,而是一群普通人如何通过精妙的数字工具,组合成远超个体之和的“超级有机体” 的竞争。它们将隐性的、口头的约定,编译成显性的、可执行的数字协议,让协作有章可循。
2025-12-24 11:32:53
124
原创 LLM之Agent(四十二)|AI Agents(十一):MCP介绍
当你第一次听到 “MCP”时, 可能听起来很复杂或非常专业,但 MCP 背后的理念却非常简单。MCP 的核心是一种通信标准。它以清晰、结构化的方式定义了人工智能模型和外部系统如何相互通信。在 MCP 出现之前,每个工具的集成方式都各不相同。有的系统可能需要 JSON 数据;有的系统可能需要专有模式;还有的系统可能需要在Prompt中使用一些变通方法。总之,没有任何统一的标准。MCP 通过引入一个所有工具、模型和应用程序都能达成共识的单一、定义明确的协议来解决这个问题。
2025-12-24 10:16:41
450
原创 LLM之Agent(四十一)|AI Agents(十):Agentic RAG介绍
检索增强生成(RAG)代表了人工智能领域的一项重大进步,它将大型语言模型(LLM)的生成能力与实时数据检索相结合。尽管 LLM 在自然语言处理方面展现出了卓越的能力,但它们对静态预训练数据的依赖常常导致响应过时或不完整。RAG 通过动态地从外部来源检索相关信息并将其融入生成过程来解决这一局限性,从而实现上下文准确且最新的输出。
2025-12-20 18:34:48
805
原创 LLM之Agent(四十)|AI Agents(九):Agentic Memory介绍
想象一下,你和一个朋友聊天,他总是忘记你说过的所有话,每次对话都从零开始。你是什么感受?不幸的是,如今大多数人工智能系统都是如此。它们确实很智能,但却缺少一个至关重要的东西:记忆。我们先来谈谈人工智能中“记忆”的真正含义以及它为何如此重要。
2025-12-11 14:14:38
585
原创 LLM之Agent(三十九)|AI Agents(八):构建Multi-Agent系统
函数调用是大型语言模型 (LLM) 与工具交互的主要方式。经常会看到“函数”和“工具”互换使用,因为“函数”(可重用代码块)是智能体用来执行任务的“工具”。工具通过使用底层应用程序或系统的 API 来扩展智能体的功能。对于没有 API 的旧系统,智能体可以依赖computer-use模型,像人一样通过 Web 和应用程序 UI 直接与这些应用程序和系统交互。每个工具都应具有标准化的定义,从而实现工具和智能体之间灵活的多对多关系。文档完善、经过全面测试且可重用的工具能够提高工具调用的正确率。
2025-12-08 23:54:09
883
1
原创 LLM之Agent(三十八)|AI Agents(七):Multi-Agent架构
每个智能体只与智能体的一部分通信。部分智能体通信是确定的,部分智能体可以决定接下来要呼叫哪些其他智能体。在这种架构中,我们将各个智能体添加为图节点,并预先定义智能体在自定义工作流中的调用顺序。
2025-12-07 11:08:36
1114
原创 LLM之Agent(三十六)|AI Agents(五):Workflow vs Agent
其次,LLM 能够提供此类反馈。对于涉及多个方面的复杂任务,如果每个方面都由单独的 LLM 调用来处理,则 LLM 通常表现更佳,这样可以集中精力关注每个特定方面。当任务复杂性较高时,我们可以使用workflows的可预测性和一致性优点来解决流程固定的任务,而智能体则更适合需要大规模灵活性和模型驱动决策的场景。在LLM应用领域,成功的关键不在于构建最复杂的系统,而在于构建最符合自身需求的系统。从简单的提示入手,通过全面的评估进行优化,只有在简单的解决方案无法满足需求时,才添加多步骤的智能体系统。
2025-12-02 22:19:32
828
原创 LLM之Agent(三十五)|AI Agents(四):AI Agent类型
推荐阅读列表在本博客中,我们将探讨不同类型的AI Agents ,包括它们的实现方式、实际应用、优势和局限性。从简单的反射型代理到Multi-Agent系统 ,我们将探索这些模型如何助力自动化、决策制定和智能问题解决。
2025-12-02 16:05:50
660
原创 LLM之Agent(三十四)|AI Agents(三):AI Agents框架介绍
智能体框架代表了人工智能系统设计方式的范式转变。与依赖静态、预定义工作流程的传统人工智能应用不同,智能体框架引入了动态、自适应的系统,这些系统能够自主感知、推理和行动。这些框架可以将复杂的任务分解成更小的子任务,由专门的智能体来处理,这些智能体协同工作以实现更广泛的目标。通过利用大型语言模型 (LLM),代理框架可以管理工作流程、做出决策并无缝集成工具,使其成为动态决策和实时问题解决等高级应用的理想选择。
2025-12-02 11:31:51
924
原创 LLM之Agent(三十三)|AI Agents(二):从零开始构建Agent
智能体是一个自主实体,能够感知其环境、做出决策并采取行动以实现特定目标。智能体的复杂程度各不相同,从对刺激做出反应的简单反应型智能体到能够随着时间推移学习和适应的更高级的智能体。常见的智能体类型包括:反应型智能体(Reactive Agents): 直接对环境变化做出反应,没有内部记忆。基于模型的智能体(Model-Based Agents): 利用内部世界模型进行决策。目标导向型智能体(Goal-Based Agents): 根据实现特定目标来规划行动。
2025-12-01 16:47:24
1285
原创 LLM之Agent(三十二)|AI Agents(一)简介
ChatGPT 发布: 2022 年 11 月 30 日,OpenAI 推出了基于 GPT-3.5 的 ChatGPT,这是首个主流的语言学习管理(LLM)应用。ChatGPT 保留了用户熟悉的聊天机器人界面,但其背后是经过庞大互联网语料库训练的先进语言学习管理技术。Transformer 架构: GPT(生成式预训练 Transformer)基于 Google 于 2017 年推出的 Transformer 架构。它使用自注意力机制来分析输入序列,从而更深入地理解上下文。LLM。
2025-12-01 13:57:54
533
原创 LLM之Agent(三十一)|定义 LangGraph State的三种方式
GraphState 类会定义智能体需要的字段,StateGraph会返回一个用于构建图的构建器,在构建器上逐渐增加node和edge,从而可以构建完整的Graph。
2025-11-28 15:24:01
754
原创 LLM微调(六)| 使用Unsloth框架和TRL库通过 GRPO强化学习算法对 Qwen 2.5 (3B) 进行对齐
这是 GRPO 的核心,模型生成的每个结果都会经过这些函数打分。# 奖励函数 1:正确性奖励# 功能:检查模型生成的答案(从 XML 中提取)是否与标准答案完全一致。正确得 2.0 分,否则 0 分。# 打印日志方便调试# 奖励函数 2:整数奖励# 功能:检查提取出的答案是否为数字。是则得 0.5 分。# 奖励函数 3:严格格式奖励# 功能:使用正则检查输出是否严格符合 <reasoning>...\n<answer>... 的格式结构。\n\n\n.*?\n\n$"
2025-11-20 15:59:33
363
原创 LLM之Agent(三十)|使用 LangGraph 构建可用于生产环境的智能聊天机器人:完整工程指南
LangGraph 代表了构建智能对话式 AI 系统的范式转变。与遵循僵化决策树的传统聊天机器人不同,LangGraph 支持创建能够根据上下文和用户需求进行推理、规划和调整响应的智能体 AI 系统。本指南将构建可用于生产环境的聊天机器人,充分利用 LangGraph 的状态管理和工作流编排功能。
2025-11-15 18:12:41
985
原创 LLM之Agent(二十九)|LangChain 1.0核心组件介绍
比起在 create_agent 中通过 state_schema 定义自定义状态,通过中间件定义自定义状态是更可取的,因为它允许你将状态扩展在概念上限制在相关的中间件和工具范围内。智能体遵循 ReAct(“推理 + 行动”)模式,在简短的推理步骤和有针对性的工具调用之间交替进行,并将由此产生的观察结果输入到后续决策中,直到能够给出最终答案。在某些情况下,希望代理以特定格式返回输出,LangChain 1.0通过 response_format 参数提供了结构化输出的策略。这是最常见、最直接的方法。
2025-11-14 09:42:06
686
原创 LLM之Agent(二十八)|AI音视频转笔记方法揭秘
从OpenAI的ChatGPT Agent,到国内各类智能助手,大家都在讨论:人工智能究竟能做到什么程度的自主理解与执行?尤其是在面对海量音视频内容时,传统工具越来越显得力不从心。行业共识是,未来的AI Agent不只是简单回答问题,更要主动理解信息、整理知识、辅助决策。无论是会议记录、在线课程还是播客内容,如果每条都需要人工整理,不仅效率低,还容易遗漏关键信息。换句话说,AI要真正成为我们的知识伙伴,而不是搜索工具。
2025-11-13 09:58:28
600
1
原创 LLM之Agent(二十七)| Manus 上下文管理经验揭秘
上下文缩减与上下文卸载类似,但它的做法则是对信息进行摘要或压缩。一个直观的方法是摘要工具调用的输出,Open Deep Research 项目中已经采用了该方法。另一个方法是精简 (pruning) 工具调用或工具消息。有趣的是,Claude 3.5 Sonnet 实际上已经内置了这个功能。如果你去看他们最近的发布,会发现它现在原生支持这个特性。所以,精简掉旧的工具调用和输出,已经成为 Claude 在其 SDK 中内置的功能。对完整的消息历史进行摘要或压缩。
2025-11-05 22:41:29
1053
原创 LLM之Agent(二十五)| 使用 A2A Agents和 MCP Server构建一个Demo Multi-Agent系统
学习某事的最好方法是通过动手练习。今天将分享一下使用 A2A Agents与 MCP server集成起来开发一个多智能体 AI 系统。
2025-11-01 15:44:47
733
原创 LLM之Agent(二十四)| AI Agents上下文工程(Context Engineering)指南
将AI Agent视为一个功能强大的助手,他需要明确的指令和相关信息才能做好工作。上下文工程是设计和管理围绕 AI Agent的信息生态系统(称为“上下文”)的过程。这是为了在正确的时间以正确的格式向代理提供正确的信息,以便它能够准确有效地执行任务。与侧重于制定单一、措辞良好的指令的提示工程不同,上下文工程是更广泛的系统级方法,它涉及编排指令、对话历史记录、记忆和外部数据等多个组件来指导代理的行为。
2025-11-01 15:25:44
755
原创 LLM之Agent(二十六)| LangChain × LangGraph 1.0 正式发布:AI 智能体迈入“工业化”纪元
在过去三年中,社区用户不断反馈:LangChain “抽象过重”“结构臃肿”,开发者希望在不放弃原始 LLM 调用的情况下更好地控制代理循环。LangChain 1.0 与 LangGraph 1.0 的发布,标志着首个稳定版本的发布,并且已经在 Uber、LinkedIn、Klarna等企业的生产环境验证过,其目标是把“智能体”从 Jupyter 笔记本搬进 CI/CD,从“脚本”升级为“系统”。官方承诺1.0是稳定版本,2.0不会有重大调整,并且官方文档已经上线docs.langchain.com。
2025-10-29 15:49:58
1328
原创 LLM之RAG实战(六十)| 为什么您的 RAG 系统无法解决复杂的问题?
检索和结构化 (RAS) 范式通过结合分类法和知识图谱等知识结构化技术来扩展传统 RAG,将非结构化文本转换为有组织的知识,以增强推理和验证。RAS 范式将三个关键组件统一到一个框架中: 信息检索 、 结构化知识表示 (如知识图谱)和大型语言模型。传统的LLMs仅依赖于他们从大量训练中记住的内容(可能已经过时或不完整),因此他们可能会猜测或“产生幻觉”答案。RAG(检索增强生成)的发展是为了解决幻觉和过时/专有数据问题。RAG 框架使 LLM 能够查找相关书籍(检索非结构化文本段落)。
2025-10-21 22:21:18
931
原创 LLM之RAG实战(五十九)| 基于MCP构建Agentic RAG教程(附代码)
MCP(即模型上下文协议)是一种开放标准,使大型语言模型 (LLM) 能够安全地访问和利用外部数据、工具和服务。可以将其视为通用连接器,像用于 AI 的 USB-C,允许不同的 AI 应用程序与各种数据源和功能进行交互。它本质上标准化了人工智能模型如何接收和使用上下文(例如文件、提示或可调用函数)以更有效地执行任务。标准化连接: MCP 为 AI 模型提供了一种与外部系统交互的一致方式,无论AI 模型或底层技术如何。
2025-10-17 16:31:39
940
原创 LLM之RAG实战(五十八)| Agentic RAG 如何改变信息检索
在开始之前,让我们先介绍一下RAG基础知识。RAG 主要包括两个步骤: 检索 (从数据库中查找相关信息)和生成 (使用 GPT 等 LLM 根据检索到的信息生成响应)。这有助于帮助LLM在真实数据中生成正确答案来避免“幻觉”(编造事实)。示例:您问人工智能:“气候变化政策的最新情况是什么?”,传统的 RAG 会将查询嵌入为向量,在向量数据库中搜索文档中的类似文本块,并将它们提供给 LLM 以获得响应。但随着查询变得复杂,这种简单的设置就显得不够了。
2025-08-26 18:11:49
906
原创 LLM之Agent(二十三)| Agentic-Doc:轻松从复杂文档中提取结构化数据
ADE 是一种人工智能驱动的方法, 超越了简单的 OCR。它不仅仅是阅读文本,而是:理解视觉布局: 识别表格、图片、标题、段落、图表等。提供地面实况边界框: 准确显示每个数据块在页面上的位置。返回结构化输出: 以分层方式组织内容,包括位置和类型信息。文档中的数据不仅与文本有关,还与结构、表格、标题和视觉提示有关。ADE 保留所有这些上下文,这对于下游自动化、搜索和 QA 非常有用。agestic-doc 是 ADE API 的 Python 包装器。
2025-08-06 14:23:09
776
原创 LLM之Agent(二十二)| AI代理的上下文工程:构建Manus的经验教训
文章原文:https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus在Manus项目的最初阶段,我和我的团队面临一个关键决策:我们是应该使用开源基础模型训练一个端到端的智能体模型,还是基于前沿模型的上下文学习能力构建一个智能体?在我的NLP生涯的第一个十年里,我们没有这种选择的奢侈。在遥远的BERT时代(是的,已经过去七年了),模型必须先进行微调——和评估——才能迁移到新任务。
2025-07-31 10:42:12
1119
原创 LLM之RAG理论(十八)| ChatGPT DeepResearch 深度研究功能全面技术分析报告
在 HLE 测试中,DeepResearch 使用的模型在专家级问题上达到了 26.6% 的准确率,刷新了之前由 OpenAI o3-mini 保持的 18.2% 的纪录。但为了能生成专业的长篇报告,以及方便指导后续的信息搜索,生成有指导意义的写作大纲是有必要的,类似 "Plan-and-Solve" 的思路,先充分规划,再有效执行。:类似于系统的 "探索者"。:随着大语言模型(LLM)能力的不断提升,特别是推理能力的显著增强,AI 从简单的信息检索和回答向复杂的研究任务转变成为可能。
2025-07-30 14:54:29
1235
原创 LLM之Agent(二十一)| FastAPI MCP 服务器指南(附代码)
FastAPI MCP 是一个零配置工具,可自动将您的 FastAPI 端点公开为模型上下文协议 (MCP) 工具。FastAPI MCP 的美妙之处在于它的简单性——它采用您现有的 API 端点并使它们可供 AI 模型访问,而无需您重写代码或创建单独的实现。使用 FastAPI MCP,您可以:自动将 FastAPI 端点转换为 MCP 工具;保留 API 架构和文档;将 MCP 服务器与 API 一起部署,或作为单独的服务部署;自定义哪些终端节点作为工具公开;控制工具描述的生成方式。
2025-07-21 14:02:57
1254
原创 LLM之RAG理论(十六)| DeepResearch综述论文译文
深度研究”(Deep Research)是指人工智能技术通过三个核心维度实现研究过程的自动化和增强:(1)智能知识发现(Intelligent Knowledge Discovery):跨异构数据源实现文献搜索、假设生成和模式识别的自动化。(2)端到端工作流自动化(End-to-End Workflow Automation):将实验设计、数据收集、分析和结果解释整合到统一的人工智能驱动的流程中。(3)协同智能增强(Collaborative Intelligence Enhancement)
2025-07-18 10:46:59
836
原创 LLM之Agent(二十)| 终极 MCP 手册:从基础到高级 LLM 集成(附代码)
模型上下文协议(MCP)是一种标准化方法,用于组织、交付和处理大型语言模型 (LLM) 的上下文信息。它旨在帮助模型更好地理解和利用提示中提供给它们的信息。MCP的关键组件包括:结构化格式:使用结构清晰的格式(比如XML)来组织不同类型的数据;信息层次结构:按重要性和相关性进行优先级排序,从而帮助模型确定哪些内容是重要的;元数据标记:提供有关上下文的其他信息,例如来源、可靠性或时间戳;处理指令:模型应如何处理、解释或使用特定信息的明确指导;
2025-07-17 11:01:51
1305
原创 LLM之RAG实战(五十七)| RAG 20多种常见算法对比
在本文,将介绍一下RAG常用的20多种算法。源码原始地址:https://github.com/FareedKhan-dev/all-rag-techniques源码完善后的地址:https://github.com/ArronAI007/Awesome-AGI/tree/main/RAG/examples/rag_examples。
2025-06-30 11:28:18
1109
原创 LLM之RAG实战(五十七)| 探索Langchain-Chatchat-V0.3:开启智能问答新时代
在人工智能飞速发展的当下,自然语言处理领域的创新成果层出不穷。Langchain-Chatchat-V0.3 便是其中备受瞩目的存在,它是基于 Langchain 思想精心打造的、面向本地知识库的智能问答应用,旨在为中文场景和开源模型提供极为友好的支持,并且能够实现离线运行,为用户打造独特的知识库问答解决方案。
2025-06-24 11:20:33
699
原创 LLM之Agent(十九)| II-Agent:开源智能体的新曙光
II-Agent 并非传统意义上简单的聊天机器人,而是一个致力于成为跨多个领域的全能代理的智能助手框架。它的出现,旨在打破人工智能应用的局限性,让 AI 真正融入到我们生活和工作的方方面面。从技术层面来看,II-Agent 有着独特的核心要素。首先是强大的大语言模型(LLM),目前它支持 Claude 3.7 Sonnet(通过 Google Cloud Vertex AI)。大语言模型就如同 II-Agent 的 “大脑”,赋予它理解自然语言、生成文本以及进行逻辑推理的能力。
2025-06-19 14:37:43
1142
原创 LLM(十九)| MiniMax-M1:大模型界的“新势力”,能否弯道超车?
MiniMax-M1 以其创新的架构、卓越的性能、出色的实战表现和亲民的价格,在大模型领域中崭露头角,成为了一颗耀眼的明星。它的出现,为人工智能的发展注入了新的活力,也为我们的生活和工作带来了更多的可能性。随着技术的不断进步和应用场景的不断拓展,我们有理由相信,MiniMax-M1 将在未来发挥更加重要的作用,为推动人工智能技术的发展和应用做出更大的贡献。让我们共同期待 MiniMax-M1 在未来的精彩表现,见证人工智能技术为我们带来的更多惊喜和变革。
2025-06-17 12:55:53
819
原创 LLM之RAG实战(五十六)| Ollama部署下载Qwen3-Embedding向量模型和Qwen3-Reranker重排模型
参考文献:https://blog.youkuaiyun.com/qq363685855/article/details/148512248之前分享过。本文将分享如何使用ollama来部署这些模型。
2025-06-13 15:32:13
2471
4
原创 LLM之RAG实战(五十五)| 阿里开源新模型,Qwen3-Embedding与Qwen3 Reranker强势来袭!
Qwen3-Embedding 的训练通过“合成数据生成→高质量精炼→模型融合”的三阶段框架,结合双编码器架构与指令微调技术,实现了多语言、长文本、高泛化性的语义表征能力。其开源的0.6B/4B/8B全规格模型(Apache 2.0协议)及阿里云API服务,大幅降低了企业落地高精度检索系统的门槛。开发者可通过Hugging Face或ModelScope快速部署。
2025-06-13 15:18:59
1300
原创 LLM之RAG实战(五十四)| 复杂文档处理RAG框架:Ragflow
RAGFlow 是一种结合了检索增强(Retrieval-Augmented Generation,RAG)与流程控制(Flow)的人工智能技术架构。它通过检索外部知识库中的信息,结合自然语言生成技术,为用户提供更准确、更丰富的回答。同时,它还引入了流程控制机制,能够根据任务需求动态调整信息检索和生成的流程,从而更好地完成复杂的任务。RAGFlow 的核心优势在于将检索和生成相结合,打破了传统生成模型仅依赖内部参数进行文本生成的局限。
2025-06-04 14:43:59
926
原创 LLM(十八)| Anthropic发布史上最强编程模型:Claude 4
这也是Claude自2024年6月以来的首次大版本号更新。Amodei称,Anthropic已经有一段时间没有更新Opus模型了,Anthropic对Opus的定位是旗下最强大、最智能的模型,而Sonnet是用户过去大约一年来一直在使用的中等水平模型。Claude Opus 4在多项基准测试上的成绩并未明显高于Claude Sonnet 4,甚至略低于后者。Amodei强调,
2025-05-26 16:15:01
1355
原创 LLM之Agent(十六)| MCP已“过时”?Google近期推出Agent2Agent 协议 (A2A)
如今,企业越来越多地构建和部署自主代理,以帮助扩展、自动化和增强整个工作场所的流程 - 从订购新笔记本电脑到协助客户服务代表,再到协助供应链规划。为了最大限度地发挥代理 AI 的优势,这些代理能够在一个动态的、多代理的生态系统中跨孤立的数据系统和应用程序进行协作,这一点至关重要。使代理能够相互作,即使它们是由不同的供应商或不同的框架构建的,也将增加自主性并成倍提高生产力,同时降低长期成本。
2025-04-11 17:19:27
875
原创 LLM之RAG实战(五十三)| 微调Embedding模型:终极指南
使用nltk进行切块,这样便于llm更好的处理。我们配置了 Matryoshka 损失函数 ,指定了用于截断嵌入的维度。内部损失函数 MultipleNegativesRankingLoss(可参考:https://sbert.net/examples/sentence_transformer/training/matryoshka/README.html) 可帮助模型生成适合检索任务的嵌入。
2025-04-03 15:24:22
1012
《美团大模型 Agent 实践手册》
2025-12-03
### 2024年十大新兴技术报告综述
2025-08-20
《GAN:实战生成对抗网络》_刘梦馨.pdf
2019-06-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅