Agent
文章平均质量分 91
丁学文武
打球、跑步、徒步、露营️、骑行、滑雪️、游泳、冲浪
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Google Conversational Agents(Gemini) 搭建知识库问答案例
本文简要介绍了Google Cloud平台上构建AI问答系统的6个步骤:1)创建存储Bucket;2)上传文档到指定文件夹;3)创建知识库并关联云存储中的PDF/HTML/TXT文档;4)创建Agents;5)将Agents与知识库关联;6)进行问答测试。特别指出Markdown格式文档不被推荐使用。整个过程涉及存储配置、文档管理、知识库构建和AI代理部署等关键环节。原创 2025-11-20 07:15:00 · 448 阅读 · 0 评论 -
九种高级 RAG 技术及其实现方法
本文介绍了9种提升检索增强生成(RAG)系统性能的高级技术,包括文本分块、重新排序、元数据利用、混合搜索、查询重写、自动裁剪、上下文蒸馏以及LLM和嵌入模型微调。这些技术通过优化检索相关性和排序质量,解决基本RAG系统存在的噪声结果、无关上下文等问题。文章还推荐了Meilisearch、Weaviate等实现工具,并强调需要通过检索准确性、延迟等指标评估技术效果。这些方法能让RAG系统从简单检索升级为智能理解用户意图的上下文感知系统,显著提高生成质量。原创 2025-11-06 07:15:00 · 1357 阅读 · 0 评论 -
如何把ChatGPT嵌入到自己的应用中?
AgentKit是OpenAI推出的开发者工具包,让ChatGPT智能体可嵌入任意网站或应用。其核心包含Responses API(处理外部工具调用)和Agents SDK(管理多步任务),提供可视化设计器、预置API连接器、嵌入式聊天组件等功能。内置安全防护机制、评测追踪工具和强化学习功能,开发者无需处理底层逻辑即可快速构建能执行多步任务的AI助手。该工具包将ChatGPT的复杂性抽象为可复用平台,使企业能高效开发客服、办公助手等场景的嵌入式AI应用。原创 2025-10-30 16:11:04 · 1746 阅读 · 0 评论 -
RAG是AI版的“油电混动汽车”?
RAG(检索增强生成)技术作为当前AI应用的"标配功能",虽能快速构建知识问答系统,但其本质是"升级版文档检索工具"而非真正的认知智能。文章指出RAG三大局限:仅能语义匹配无法理解知识、缺乏推理能力、输出不可控,揭示其只是满足企业"确定性幻想"的过渡方案。真正的知识智能需将知识内化为模型参数,通过微调、多跳推理架构等实现理解与推理能力。RAG虽解决短期工程问题,但终将被能真正理解语义、构建逻辑的AI系统取代。当前热潮反而可能延缓AI认知能力的突破。原创 2025-10-27 07:30:00 · 831 阅读 · 0 评论 -
最新RAG技术架构演进路线图拆解
RAG技术从Naive RAG到Agentic RAG经历了显著演进:Naive RAG通过简单检索增强模型知识,但存在上下文断层;Graph RAG引入知识图谱解决信息分割问题;Agentic RAG则实现动态知识获取,支持多智能体协作。横向迭代包括Naive RAG的重排机制和多模态支持、Graph RAG的混合检索架构,以及Agentic RAG的灵活扩展设计。这些改进使RAG系统在知识完整性、查询复杂度和应用灵活性上持续提升,推动大模型在实际业务中的深度应用。原创 2025-10-14 07:00:00 · 1882 阅读 · 0 评论 -
每周七亿人使用ChatGPT!他们究竟在用它做什么?究竟怎么用?
ChatGPT 已迅速崛起为全球现象级 AI 工具,每周活跃用户超 7 亿,其中 73% 为非工作场景使用。OpenAI 最新报告显示,用户主要应用集中在七大领域:实用指南(29%)、信息获取(24%)、内容创作(24%)、技术帮助(5%)、多媒体处理(7%)、自我表达(2.4%)等。文章提供了针对这些场景的实用提示模板,如学习辅导、流程指导、创意头脑风暴、信息对比分析等,帮助用户高效获取 AI 支持。值得注意的是,ChatGPT 正从专业工作工具转变为融入日常生活的智能伙伴,特别在低收入国家的增长显著。合原创 2025-10-12 07:00:00 · 1929 阅读 · 0 评论 -
大语言模型(LLM)是“预制菜”? 从应用到底层原理,在到中央厨房的深度解析
本文以大语言模型(LLM)为"预制菜"的类比,系统阐述了AI产业的范式转变。文章从标准化生产(预训练、数据处理、模型架构)、便捷消费(提示词工程、微调、RAG技术)两方面,解析了LLM如何实现智能能力的规模化生产与快速交付。同时指出当前存在的黑盒性、领域知识局限等挑战,并展望了从"预制菜"向"智能中央厨房"进化的未来趋势,即构建动态生态系统,实现从零构建到快速搭建的转变。这一类比深刻揭示了LLM对AI产业带来的效率革命和普惠价值。原创 2025-10-11 14:02:26 · 1152 阅读 · 0 评论 -
大模型原理与实践:第七章-大模型实战_第2部分-智能体Agent系统
摘要 本文介绍了大模型智能体(Agent)系统的核心概念与实践。Agent系统以大语言模型为核心,具备自主规划、记忆、工具调用等能力,显著区别于传统LLM的被动响应模式。文章从Agent的定义、分类体系入手,详细阐述了其ReAct框架和四大类型(任务导向型、规划推理型、多Agent系统和探索学习型)。实战部分展示了如何构建一个Tiny-Agent,包括初始化配置、工具函数定义及JSON Schema转换方法,为开发基于LLM的智能体系统提供了具体实现路径。该内容是大模型实战系列文章的第七章第2部分,属于完整原创 2025-10-10 07:45:00 · 2056 阅读 · 0 评论 -
大模型原理与实践:第四章-大语言模型_第2部分-LLM预训练、监督微调、强化学习
本文系统介绍了大语言模型(LLM)的三阶段训练过程:预训练(Pretrain)、监督微调(SFT)和人类反馈强化学习(RLHF)。重点分析了预训练阶段的因果语言建模任务、模型规模对比(从BERT到GPT-5的演变)、Scaling Law理论以及分布式训练技术。通过参数计算和资源需求分析,揭示了训练现代大模型所需的海量计算资源,包括数万张GPU和数月的训练时间。文章为理解大语言模型的核心训练原理提供了全面而深入的技术视角。原创 2025-10-06 07:45:00 · 1011 阅读 · 0 评论 -
大模型原理与实践:第四章-大语言模型_第1部分-发展历程、上下文、指令遵循、多模态
本文系统介绍了大语言模型(LLM)的核心概念、发展历程及其独特能力。LLM通过超大规模参数(百亿至千亿级)和大量数据训练,展现出传统模型不具备的涌现能力,包括上下文学习、指令遵循和逐步推理等。文章梳理了从GPT-3到ChatGPT等代表性模型的演进历程,并分析了LLM在多语言支持、长文本处理、多模态扩展等方面的技术特征,同时也指出了幻觉问题等挑战。原创 2025-10-06 08:00:00 · 1246 阅读 · 0 评论 -
RAG 全流程核心技术深度解析:2-RAG完整案例实战示例
本文介绍了RAG(检索增强生成)技术的完整实现流程,包括环境搭建、文档加载、文本分块、向量化存储和问答链创建等核心步骤。通过Python代码示例展示了如何使用LangChain库构建一个企业智能知识问答系统,包括加载本地文档、文本切分、向量数据库构建(FAISS)、以及结合大语言模型(如GPT-3.5)实现检索增强的问答功能。文章还提供了优化的Prompt模板设计,并讨论了RAG在智能客服、文档问答和法律领域的应用前景,以及未来可能的发展方向如多模态融合和模型轻量化等。原创 2025-10-05 08:00:00 · 958 阅读 · 0 评论 -
RAG 全流程核心技术深度解析:1-工作原理+切片+召回+排序
本文深入解析了检索增强生成(RAG)技术的核心原理与应用。RAG通过将信息检索与大语言模型生成能力结合,有效解决大模型的"幻觉"问题、知识时效性不足和领域专业壁垒等关键问题。文章详细介绍了RAG的工作流程,包括准备阶段的分片(Chunking)和索引(Indexing)技术,以及回答阶段的召回、重排和生成过程。特别针对分片技术,对比分析了固定长度切分、递归字符切分、语义切分、结构切分和LLM智能切分五种方法的优缺点及适用场景。最后,文章还探讨了向量化(Embedding)的核心算法和主流原创 2025-10-05 08:00:00 · 1537 阅读 · 0 评论 -
Claude Sonnet 4.5重磅发布,编程新王降临!30小时持续编码、0%错误率
【大模型竞赛升级!ClaudeSonnet4.5发布】Anthropic重磅推出ClaudeSonnet4.5,自称"世界最佳编码模型",将自主编码时长提升至30+小时,在SWE-bench评估中达到SOTA水平。新模型在推理、数学及专业领域表现显著提升,并强化了安全对齐机制。随更新推出ClaudeAgentSDK工具包、VSCode扩展及Chrome插件,支持代码检查点和长时任务处理。定价维持3/15美元每百万token(输入/输出),现已在API上线。此外还面向Max用户开放&quo原创 2025-09-30 18:47:15 · 720 阅读 · 0 评论 -
大模型原理与实践:第一章-NLP基础概念完整指南_第2部分-各种任务(实体识别、关系抽取、文本摘要、机器翻译、自动问答)
自然语言处理技术体系包含多个核心任务:基础层的分词、词性标注处理文本结构;语义层的实体识别、关系抽取理解文本含义;应用层的文本分类、摘要、翻译和问答实现智能交互。这些任务从简单到复杂,共同构建了完整的NLP技术栈。随着深度学习发展,基于Transformer的预训练模型显著提升了各项任务性能。现代NLP已从规则方法演进到端到端学习,推动着智能客服、内容生成等实际应用的快速发展,让人机交互更加自然流畅。原创 2025-09-30 08:00:00 · 1016 阅读 · 0 评论 -
NLP2SQL必备的9款神器,重新定义企业级ChatBI-AI问数场景
本文介绍了9款NLP2SQL工具,助力企业实现ChatBI智能数据分析。这些工具包括Chat2DB(支持多数据库的AI客户端)、SQL Chat(对话式SQL工具)、Vanna(Python RAG框架)、Dataherald(企业级NL2SQL引擎)、WrenAI(生成式BI智能体)、SuperSonic(腾讯音乐开源BI平台)、Awesome-Text2SQL(学习资源集合)、DuckDB-NSQL(本地化SQL模型)和LangChain SQL(框架集成方案)。文章从项目概述、核心技术、应用场景等维度原创 2025-09-29 08:00:00 · 1623 阅读 · 0 评论 -
AI 智能体 8 种常见的记忆(Memory)策略与技术实现
AI智能体记忆策略全解析:8种核心方案原理与实战 本文系统介绍了AI智能体实现记忆功能的8种核心策略,帮助开发者突破LLM上下文长度限制,实现更智能的对话系统: 全量记忆:存储所有对话历史,简单但不可持续 滑动窗口:仅保留最近N轮对话,平衡性能与记忆 相关性过滤:基于重要性评分选择性保留关键信息 摘要/压缩:提炼对话要点,节省空间保留核心内容 向量数据库:利用语义检索实现海量长期记忆 知识图谱:结构化存储关系型知识 分层记忆:区分短期工作记忆与长期知识库 类OS内存管理:模拟计算机内存分页机制 每种策略各有原创 2025-09-28 08:00:00 · 1222 阅读 · 0 评论 -
Dify 2.0 重磅升级!知识管道登场,RAG 开发效率直接翻倍
Dify 2.0推出知识管道功能,将RAG文档处理流程模块化。该功能通过可配置的流水线处理数据,支持多种数据源和解析插件(如MINERU、Unstructured),提供通用、父子分块等分段策略,并内置7种模板应对不同场景(如复杂PDF解析、LLM上下文增强)。知识管道开放了文档解析、分块和索引配置环节,显著提升了RAG开发的灵活性和处理效率。生产环境建议暂缓升级,体验版可拉取2.0.0-beta.2标签安装。原创 2025-09-23 20:15:04 · 1319 阅读 · 0 评论 -
Agent框架系列:5-框架全景对比分析、实战案例集、框架选择建议
智能体框架对比与选择指南 本文系统对比了11种主流智能体框架的技术特点、协作能力和适用场景。核心发现: 低代码平台:Coze、n8n适合快速原型开发,学习周期仅1周 多Agent协作:AutoGen和CrewAI在复杂任务协作上表现突出 企业级应用:MaxKB和FastGPT提供完整解决方案 扩展性:LangChain和n8n拥有最丰富的工具生态 实战案例展示了智能客服系统在不同框架中的实现差异,其中: AutoGen擅长动态对话协作 LangChain适合模块化开发 低代码平台可快速部署基础功能 选择建议原创 2025-09-26 08:30:00 · 873 阅读 · 0 评论 -
通义团队提出环境Scaling:自动构建环境,并自主学习和成长,可让30B比肩1T效果
这就好比教一个孩子不仅要知道“什么是开关”,还要学会“走过去按下开关”来开灯——后者需要的是在具体环境中通过反复尝试和反馈才能掌握的能力。论文:Towards General Agentic Intelligence via Environment Scaling链接:https://arxiv.org/pdf/2509.13311以往训练这类“代理智能”的主要瓶颈在于缺乏高质量、大规模、多样化的交互数据。人工标注成本极高,而单纯用模型生成的数据又往往不够真实或难以验证。。基于该方法训练的。原创 2025-09-23 09:00:00 · 1563 阅读 · 0 评论 -
Agent框架系列:4-企业级平台深度解析MaxKB、FastGPT、DB-GPT
企业级知识管理平台深度解析:MaxKB、FastGPT、DB-GPT 本文深入剖析三大企业级知识管理平台的技术特点与应用场景。MaxKB作为开源知识库问答系统,采用分层架构和智能文档处理流水线,实现知识检索与问答功能;FastGPT提供一站式AI应用开发平台,支持低代码构建;DB-GPT专注于数据库智能化分析。三大平台定位不同:MaxKB侧重知识管理,FastGPT聚焦应用开发,DB-GPT专长数据库分析。企业可根据需求选择适合的平台:知识密集型业务推荐MaxKB,快速开发需求适合FastGPT,数据库分析原创 2025-09-25 09:00:00 · 936 阅读 · 2 评论 -
Agent框架系列:3-多智能体框架AutoGen、CrewAI、GraphRAG 深度解析
多智能体协作框架通过专业化智能体协同处理复杂任务。AutoGen采用对话驱动模式,支持动态协商,适合代码审查等灵活交互场景。CrewAI基于角色分工,明确定义职责目标,适合内容创作等结构化任务。GraphRAG利用知识图谱增强检索,擅长从数据中提取深层洞察。三大框架各有侧重:AutoGen强在动态协作,CrewAI长于分工明确,GraphRAG专精知识推理。选择需考虑任务特性,共同推动智能体协作技术发展。原创 2025-09-25 08:45:00 · 1278 阅读 · 0 评论 -
Agent框架系列:2-LangChain-LangGraph生态深度剖析
摘要: 本文深度剖析LangChain和LangGraph两大智能体开发框架。LangChain作为模块化LLM应用框架,提供链式调用和组件化开发能力,支持多步推理流程构建。LangGraph基于图结构编排复杂智能体系统,实现状态管理和条件执行。两者形成互补生态,覆盖从简单链式调用到复杂智能体系统的全场景需求。文章详细解析了技术架构、核心原理(如链式调用/图遍历机制)和实战案例(如法律咨询系统),并给出框架选型建议。该生态具有成熟的工具链、丰富的RAG支持和开源模型兼容性优势。原创 2025-09-24 08:45:00 · 1726 阅读 · 0 评论 -
Agent框架系列:1-低代码智能体平台深度解析Dify、Coze、n8n
Dify、Coze 和 n8n 是三大主流低代码智能体平台,各有侧重。Dify 适合企业级 AI 应用,具备强大的 RAG 和知识库管理能力,技术栈为 Python + React。Coze 由字节推出,主打零代码和快速原型开发,集成 60+ 插件,极适合非技术用户。n8n 以工作流自动化和系统集成为核心,支持 400+ 外部应用,基于 Node.js + Vue,扩展性极强。选择建议:非技术团队选 Coze,AI 应用选 Dify,复杂自动化与集成选 n8n。可根据实际需求混合使用,最大化平台优势。原创 2025-09-24 08:15:00 · 2620 阅读 · 0 评论 -
大模型压缩:1-大模型各种剪枝-原理剖析+方法对比+实战案例
大模型剪枝技术综述:原理、方法与实践 本文系统梳理了大模型剪枝技术,涵盖基本原理、数学基础和实际应用。主要内容包括:1)剪枝分类(结构化与非结构化);2)权重剪枝与神经元剪枝方法;3)针对Transformer架构的结构化剪枝策略;4)各类剪枝技术的优缺点比较。特别关注大语言模型剪枝的特殊性,如规模巨大、层次复杂、训练成本高等挑战。文章详细介绍了基于权重幅度、梯度和二阶信息的剪枝评分方法,以及全局与局部剪枝策略,为模型压缩提供了实用指导。原创 2025-09-22 08:00:00 · 1289 阅读 · 0 评论 -
大模型微调:3-高效微调原理详解LongLoRA+VeRA+S-LoRA
本文深入解析了三种前沿的大模型高效微调技术:LongLoRA、VeRA和S-LoRA。LongLoRA通过稀疏局部注意力机制和LoRA结合,显著降低了长文本微调的计算成本;VeRA采用基于向量的随机矩阵适应,进一步提升了参数效率;S-LoRA则实现了多LoRA适配器的并发服务架构。文章从技术背景、核心原理、数学建模到实战案例,系统性地介绍了这些方法在解决大模型微调面临的资源消耗、内存限制和计算效率等关键挑战上的创新突破,为AI从业者提供了全面的技术指南。原创 2025-09-21 08:15:00 · 1202 阅读 · 0 评论 -
大模型微调:2-高效微调原理详解LoRA+DyLoRA+AdaLoRA+QLoRA+QA-LoRA+实战案例
本文详细介绍了大模型高效微调的各种方法及其原理。主要内容包括: 全参数微调(Full Fine-tuning)的传统方法及其内存和计算成本高的缺点 参数高效微调(PEFT)的基本概念和优势 主要微调方法: Adapter:在模型层间插入小型神经网络模块 Prefix Tuning:通过可训练前缀优化模型 LoRA系列:低秩适配器方法(包括基础LoRA、动态DyLoRA、自适应AdaLoRA等) QLoRA:量化低秩适配器 QA-LoRA:量化感知的低秩适应 各种方法的对比分析和实战案例演示 这些技术通过仅微原创 2025-09-21 08:00:00 · 1017 阅读 · 0 评论 -
大模型微调:1-高效微调原理详解Prefix Tuning+Prompt Tuning+P-Tuning v1/v2+实战案例
大模型微调:高效微调技术详解Prefix Tuning+Prompt Tuning+P-Tuning v1/v2+实战案例,大型预训练模型是一种在大规模语料库上预先训练的深度学习模型,它们可以通过在大量无标注数据上进行训练来学习通用语言表示,并在各种下游任务中进行微调和迁移。随着模型参数规模的扩大,微调和推理阶段的资源消耗也在增加。针对这一挑战,可以通过优化模型结构和训练策略来降低资源消耗。原创 2025-09-20 08:00:00 · 1165 阅读 · 0 评论 -
大模型提示词Prompt工程:3-思维链+思维树+思维图+原理解释+适用场景+最佳实践案例库
摘要:本文系统介绍了三种大语言模型提示工程技术:思维链(CoT)、思维树(ToT)和思维图(GoT)。思维链通过分步推理解决复杂问题,提高准确性和可解释性;思维树扩展为多路径探索,增强灵活性和错误恢复能力;思维图则构建更复杂的网络结构,支持非线性推理。文章详细分析了每种方法的原理、优势、适用场景及局限性,并提供了对比选择指南和实践案例库。这些技术显著提升了大模型在数学推理、逻辑分析、创意生成等任务中的表现,为AI系统的高级推理能力开发提供了重要方法论。(149字)原创 2025-09-20 07:45:00 · 1292 阅读 · 0 评论 -
大模型提示词Prompt工程:2-全攻略+最佳实践框架+原理解析+实战案例库+七招要诀
大模型提示词Prompt工程指南 本指南系统介绍了5种高效的提示词框架,帮助用户与大模型实现精准交互: APE框架:分解为行动(Action)、目的(Purpose)、期望(Expectation),适用于营销推广、教育培训等场景。 BROKE框架:包含背景(Background)、角色(Role)、目标(Objectives)、关键结果(Key Results)、演变(Evolve),融合OKR方法论。 CHAT框架:聚焦角色(Character)、背景(History)、目标(Ambition)、任务(原创 2025-09-19 09:13:05 · 1674 阅读 · 0 评论 -
大模型提示词Prompt工程:1-万能公式-完整指南
《大模型Prompt工程万能公式完整指南》摘要 本指南系统介绍了AI提示词设计的六步方法论:1)角色定位-选择专业角色激活相关知识;2)现状描述-提供完整背景信息;3)需求表达-使用明确动作动词;4)格式规范-选择适合的输出结构;5)语调设定-匹配场景调整语言风格;6)标杆学习-提供优质参考案例。指南包含商业、教育、健康等领域的实战模板,强调通过精确指令和结构化设计提升AI输出质量。核心是让用户学会与AI高效沟通的专业技巧,获取更精准有效的响应。原创 2025-09-18 18:52:24 · 1311 阅读 · 0 评论 -
Qwen模型系列演进:从Qwen1到Qwen3-Next的技术革新之路
摘要:本文系统梳理了阿里通义千问大模型从Qwen1到Qwen3-Next的技术演进历程。Qwen1(2023)奠定了RoPE位置编码、PreRMSNorm等基础架构;Qwen1.5(2024)引入稀疏专家系统(MoE)和GQA注意力;Qwen2(2024)全面采用GQA并扩展训练数据至7T tokens;Qwen2.5(2024)实现100万tokens长文本处理;Qwen3(2025)创新性提出动态思考机制和QK-RMSNorm技术,模型规模达480B参数。这一系列演进展现了从基础架构优化到推理能力突破的原创 2025-09-17 07:45:00 · 1905 阅读 · 0 评论 -
大模型数据处理实战:文本处理、高效数据管道、性能优化技巧、多机分布式、质量评估,全方位解析
大模型数据处理实战:从原始文本到高效数据管道 本文系统介绍了大模型开发中的数据预处理全流程,涵盖环境配置、工具选型到核心分词技术。重点讲解了处理100GB+文本数据的高效方法,包括流式处理原理和分布式计算架构。详细解析了BPE、WordPiece和SentencePiece三种主流分词算法的实现原理与技术特点,并提供了完整的代码示例。文章还分享了数据清洗的关键步骤和优化策略,如HTML标签处理、文本长度过滤和正则优化,帮助开发者构建工业级数据流水线,处理TB级文本数据。原创 2025-09-16 14:07:09 · 1312 阅读 · 0 评论 -
MCP传输机制完全指南:Stdio、SSE、Streamable HTTP详解-实践案例-整体对比
本文介绍了MCP协议中的三种通信方式:Stdio、SSE和Streamable HTTP。Stdio基于系统标准输入输出,适合本地低延迟通信,但性能受限。SSE提供单向实时推送,网络兼容性好但服务器压力大。Streamable HTTP支持双向流式通信,性能优异但实现复杂。文章通过Python代码示例展示了Stdio和SSE的实现方式,帮助开发者根据实际需求选择合适协议。Stdio适合本地工具开发,SSE适用于实时通知,而Streamable HTTP则是高性能场景的理想选择。原创 2025-09-15 15:07:38 · 2189 阅读 · 0 评论 -
MCP 深度解析:AI 与外部世界的标准化通信桥梁
摘要:MCP(Model Context Protocol)是Anthropic提出的开源协议,用于标准化LLM与外部工具间的通信。其核心设计包括解耦模型与工具、确保安全性、支持扩展性和建立统一标准。架构由客户端、服务器和资源三部分组成,通过JSON-RPC实现交互。相比传统API,MCP具有动态性高、安全性强和生态共享等优势。服务器通过初始化握手宣告能力,支持同步/异步工具调用,并提供资源订阅机制实现实时数据流。未来MCP将向专业化服务器、标准化互操作和复杂代理场景发展。协议支持Stdio、SSE和Str原创 2025-09-15 08:33:58 · 1115 阅读 · 0 评论 -
阿里开源WebSailor:Web Agent智能体大模型-超人推理能力训练方法-深度源码解析
阿里巴巴开源WebSailor:突破Web Agent智能体推理能力极限 WebSailor是阿里巴巴通义实验室推出的开源Web Agent智能体大模型,专门针对复杂信息搜索任务设计。该模型通过创新的训练方法,解决了当前开源模型在Level 3高不确定性任务(如需要创造性探索和新颖推理模式的问题)上的表现瓶颈。采用ReAct框架,配备Google搜索和网页访问两大核心工具,支持多轮Thought-Action-Observation推理循环。关键技术包括:1)专为高不确定性任务设计的训练方案;2)强大的信息原创 2025-09-05 07:45:00 · 2334 阅读 · 0 评论 -
Chain-of-Agents:多智能体系统的全新范式-实现详解-ReAct+MAS+TIR+CoA核心对比
Chain-of-Agents:多智能体协作的新范式 Chain-of-Agents(CoA)是一种创新的多智能体系统范式,通过将多智能体协作过程内化到单一模型中,解决了传统方法计算效率低、泛化能力差等痛点。CoA系统包含思考智能体、规划智能体、反思智能体等角色,通过动态编排机制实现高效协作。其训练采用多智能体知识蒸馏和强化学习两阶段方法,首阶段通过监督学习模仿教师系统行为,第二阶段通过强化学习优化性能。实验证明,CoA在复杂推理任务上表现优异,推理速度提升3倍,计算成本降低80%,为多智能体系统发展开辟了原创 2025-09-04 07:45:00 · 1578 阅读 · 1 评论 -
Agentic RAG:RAG从静态到具有理解、推理、决策的Agentic RAG
RAG技术演进:从静态检索到智能代理 RAG(检索增强生成)技术经历了五个关键发展阶段:基础RAG(关键词检索)、高级RAG(语义理解)、模块化RAG(灵活架构)、图RAG(知识图谱)和最新的Agentic RAG(智能代理)。Agentic RAG通过引入自主AI代理,具备反思、规划、工具使用和多代理协作能力,实现了动态决策和自适应工作流。相比传统RAG的静态检索流程,Agentic RAG能处理复杂多步推理任务,通过自我改进机制提高输出质量,并支持多专业代理协作,显著提升了RAG系统在复杂场景下的表现。原创 2025-08-26 07:45:00 · 1907 阅读 · 0 评论 -
ElasticSearch-RAG-LangChain-从入门到实践-检索案例
本文介绍了使用LangChain和Elasticsearch构建RAG(检索增强生成)代理的完整流程。主要内容包括:1) 文档加载与预处理,支持TXT、PDF和Markdown格式;2) 使用RecursiveCharacterTextSplitter进行文档分块;3) 通过ElasticsearchStore存储OpenAI生成的文本嵌入向量;4) 实现文档的增量更新和删除功能。代码展示了如何配置Elasticsearch客户端、处理SSL认证以及管理向量存储,为构建智能问答系统提供了完整的实现方案。原创 2025-08-27 07:45:00 · 306 阅读 · 0 评论 -
Chroma-LangChain-Agent-完整问答实践案例
本文介绍了如何使用Python和LangChain框架构建文档检索系统。主要内容包括: 文档加载:支持txt/md/pdf格式,通过TextLoader、UnstructuredMarkdownLoader和PyPDFLoader实现,并自动添加文件名作为元数据。 Chroma向量数据库管理:实现集合的创建与复用,通过HTTP客户端连接Chroma服务,支持文本向量存储和检索。 文档处理流程:使用RecursiveCharacterTextSplitter对文档进行切片,将文本块存入向量数据库,保留原始元数原创 2025-08-26 07:45:00 · 575 阅读 · 0 评论 -
DeepSeek-V3.1 发布,迈向 Agent 时代的第一步
DeepSeek-V3.1正式发布,主要升级包括:1)采用混合推理架构,支持思考/非思考双模式切换;2)优化思维链效率,思考模式(V3.1-Think)在保持性能的同时减少20%-50%的token消耗;3)增强Agent能力,在编程修复(SWE)和终端任务(Terminal-Bench)中表现显著提升。API同步升级至128K上下文,新增Anthropic格式兼容和严格模式Function Calling。基础模型开源,新增840B tokens训练数据。价格将于2025年9月6日调整并取消夜间优惠。原创 2025-08-21 17:26:33 · 1621 阅读 · 0 评论
分享