kakaZhui
AI算法专家,精通大模型算法以及Agent等
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【Agent实战】Anthropic Skills、MCP与LangGraph的工程实践
随着大语言模型(LLM)应用从简单的Chatbot向自主智能体(Autonomous Agents)演进,如何管理复杂的任务上下文、标准化的工具调用以及确定性的业务流程,成为了系统设计的核心挑战。Anthropic 推出的 Skills 规范,结合 Model Context Protocol (MCP) 与 Function Calling,为构建模块化、可扩展的 Agent 提供了全新的范式。原创 2026-01-07 17:30:30 · 39 阅读 · 0 评论 -
【实战总结】从llm训练到Agent 架构演进再到Agent落地优化
随着大语言模型(LLM)从单纯的“对话者”向具备自主行动能力的“Agent”演进,单一的 Prompt Engineering 已无法满足生产级应用的需求。本文尝试剖析三大主流架构的设计哲学,探讨如何通过将 Agent 能力内化为模型本能,并重点解决工程落地中令人头疼的“过敏性工具调用”(Trigger-Happy)问题,总结一套从算法到工程的完整解决方案。原创 2025-12-22 22:02:56 · 223 阅读 · 0 评论 -
字节新论文:通过Context-Folding记忆折叠实现复杂Agent
今天一起看下字节新出论文《Scaling Long-Horizon LLM Agent via Context-Folding》。在构建长程(Long-Horizon)Agent 时,上下文窗口的线性增长与注意力的二次方开销是制约模型推理能力与运行效率的核心瓶颈。不同于传统的 RAG 或基于摘要的被动压缩,字节提出的Context-Folding 赋予了 Agent主动管理记忆的能力:通过branch和return。原创 2025-12-16 21:09:36 · 207 阅读 · 0 评论 -
解构 OpenAI 的记忆管理机制:从 “Bio Tool“ 到工程化落地
今天一起来读一篇ChatGPT Memory的逆向工程博客(https://manthanguptaa.in/posts/chatgpt_memory)。大语言模型(LLM)的无状态性(Statelessness)一直是构建个性化 Agent 的核心瓶颈,OpenAI 很早在 ChatGPT 中推出的 Memory 功能,标志着从单纯的 RAG(检索增强生成)向“主动式状态管理”的范式转移。本文将基于逆向工程视角,尝试理解ChatGPT 的bio工具机制,探讨其构建长期记忆”的智能体的设计逻辑。原创 2025-12-16 12:30:55 · 49 阅读 · 0 评论 -
【Anthropic分享博客】Anthropic 内部的 Agentic Workflow 工程实践
随着 AI 辅助编程从单纯的 “Chat” 向 “Agentic”(代理式)演进,一直都是代表一种全新的工程交互范式。本文基于 Anthropic 最新分享看Claude Code的落地案例,尝试解析 Claude Code 的技术架构逻辑、上下文管理策略(Context Management)、以及基于 MCP(Model Context Protocol)的扩展应用,并重点分析如何利用这一工具构建“人在回路”的自动化闭环,以及其对现代软件工程生命周期的重构。原创 2025-12-12 21:33:54 · 65 阅读 · 0 评论 -
生产级 Agent 的极简架构: MiniMax Mini-Agent
在 Agent 框架百花齐放的今天,一起来看下MiniMax 发布的开源项目Mini-Agent(https://github.com/MiniMax-AI/Mini-Agent)),他提供了一个独特的视角。它不仅仅是自家 M2 模型的展示 Demo,更是一套遵循“Interleaved Thinking”(交错思维)范式的参考架构。本文将从架构设计、核心代码逻辑、Context 管理策略及 MCP 协议集成四个维度,深度剖析这个轻量级但生产力极强的 Agent 框架。原创 2025-12-10 13:00:21 · 176 阅读 · 0 评论 -
【读论文】医疗RAG的精准评测与实战优化
检索增强生成(Retrieval-Augmented Generation, RAG)被普遍认为是解决大型语言模型(LLM)在医疗等高风险领域知识更新滞后、回答缺乏依据等问题的关键技术,RAG总能带来性能提升已经被广泛默认,但是最近看到一篇论文(Kim et al., arXiv:2511.06738v1)对此有质疑。论文发现,医学领域中标准的RAG流程不仅未能稳定提升性能,在许多情况下甚至会降低答案的事实性和完整性。相比结论,我更感兴趣的是论文的评测方法和优化方案,作者们设计了三阶段精细化评测框架。原创 2025-12-07 22:00:29 · 51 阅读 · 0 评论 -
【读代码】RAG Agent专属内存管理方案MIRIX
最近关注到RAG Agent内存管理项目MIRIX(https://github.com/Mirix-AI/MIRIX),它提出了一种基于多智能体协作(Multi-Agent Collaboration)和认知科学模型的六层记忆架构。本文尝试从系统架构、记忆ETL流水线、主动检索机制及代码实现四个维度,深度剖析 MIRIX 如何解决智能体“灾难性遗忘”与“信息碎片化”的核心难题。原创 2025-12-01 22:20:09 · 485 阅读 · 0 评论 -
【读代码】构建有状态的智能体:从MemGPT架构分析到 LangGraph实践
这是最关键的一步。我们需要将从常规的消息流中剥离出来,使其成为一个独立的、持久的状态对象。# 定义核心内存结构persona: str # 机器人的自我设定human: str # 机器人对用户的认知# 定义 Agent 全局状态# 消息历史:使用 operator.add 实现追加模式# 核心内存:不使用 add,而是由 ToolNode 进行全量替换/更新# 这模拟了 RAM 的读写特性传统的工具是 Read-only 的(如搜索 Google)。原创 2025-12-01 22:45:47 · 194 阅读 · 0 评论 -
【读代码】微软RAG内存管理方案:Microsoft Kernel Memory
在 AI 工程化落地过程中,RAG的瓶颈往往不在于模型本身,而在于数据处理流水线的健壮性。如何高效处理 PDF/Word/网页等多模态数据?如何解决文档切片的语义断裂?如何处理大规模文档索引时的延迟与重试?给出了企业级的方案。它不是一个简单的向量库连接器,而是一个云原生的、异步的、支持多模态的 AI 服务。KM 的强大之处在于其可扩展性。假设你需要处理一种特殊的专有格式文件.xyz,或者你想在写入向量库之前对文本进行脱敏处理 (PII Redaction)。原创 2025-11-30 23:18:36 · 95 阅读 · 0 评论 -
【读代码】Zep--基于Graph-RAG的记忆方案
在构建生产级 AI Agent 时,开发者面临着一个普遍的困境:简单的向量检索(Vector RAG)无法处理复杂的关系推理,而庞大的上下文窗口(Context Window)又带来了昂贵的成本和延迟。作为一种"记忆即服务"(Memory-as-a-Service)的基础设施,它不仅仅是一个向量数据库,更是一个集成了异步 NLP 流水线时序知识图谱 (Temporal Knowledge Graph)和混合检索的完整记忆操作系统。原创 2025-11-28 23:39:58 · 82 阅读 · 0 评论 -
【Agent实战】从 Anthropic 多智能体实践总结到类OpenManus应用实现(资源中附完整代码)
近期关注Anthropic 分享的其内部用于复杂任务处理的“多智能体研究系统”(https://www.anthropic.com/engineering/multi-agent-research-system),通过并行化、分工化和迭代式的设计,显著提升了 LLM 解决复杂问题的广度与深度。本文将尝试分析Anthropic 的架构理念,并以之前爆火的Manus为产品对标,使用 Python 和LangGraph框架,从零构建一个具备中文意图理解、英文广度搜索、深度中文报告生成。原创 2025-11-27 21:52:41 · 71 阅读 · 0 评论 -
【实战总结】Agent 应用中的高级记忆管理方案思考
在从早期的 Chatbot 向自主 Agent(Autonomous Agent)演进的过程中,"记忆(Memory)"的定义发生了质的改变。对于工业级 Agent 而言,记忆不再仅仅是滑动窗口内的几轮对话历史,而是一套涵盖了显性工作状态隐性用户画像以及语义知识沉淀的复杂代谢系统。本文将深入探讨工业界在构建 Agent 记忆系统时面临的核心挑战,尝试一种基于“双轨制记忆代谢(Dual-Track Memory Metabolism)”的通用架构,并基于LangGraph和Vector DB。原创 2025-11-27 21:14:42 · 65 阅读 · 0 评论 -
低成本AI 硬件解决方案:Xiaozhi-ESP32 全链路架构
随着大语言模型 (LLM) 的爆发,如何将强大的认知能力下沉到低成本、低功耗的 IoT 设备上,成为 AIoT 领域的核心命题。开源项目提供了一个不错的解决方案。该项目采用“瘦客户端 + 胖服务端” (Thin Client + Thick Server)的架构设计,基于 ESP32 芯片实现了具备全双工语音交互、多轮对话记忆、多模态情感表达及视觉感知能力的 AI 智能体。本文将从系统架构、关键算法实现、工程优化策略三个维度,深度剖析该项目的技术内核。原创 2025-11-26 22:15:22 · 514 阅读 · 0 评论 -
【读代码】LightRAG轻量级知识图谱增强检索系统的架构与实现
在大型语言模型(LLM)时代,如何让AI系统获取准确、可追溯的知识成为重要课题。传统的检索增强生成(RAG)系统多采用简单的向量相似度搜索,存在上下文片段化、知识关联缺失等问题。针对这些难题,今天一起看下开源项目LightRAG(https://github.com/HKUDS/LightRAG),它将知识图谱与向量检索进行深度融合,实现了"轻量级但高效"的RAG方案。双层次检索架构:结合本地(local)和全局(global)两级知识检索自适应存储层。原创 2025-11-16 21:28:07 · 297 阅读 · 0 评论 -
Kimi K2 Thinking:兼顾Agent和推理的六边形战士
Moonshot AI(月之暗面)近期发布技惊四座的Kimi K2 Thinking模型,并非传统意义上的大语言模型(LLM)的简单升级,而是一次深刻的范式转换——从“生成答案”的语言模型,演进为“解决问题”的思维代理(Thinking Agent)。本文依据官方发布内容,深入剖析Kimi K2 Thinking的设计哲学、核心能力、工程实现逻辑,并探讨其在长程规划、适应性工具调用等方面的创新价值,揭示其如何通过架构与工程的协同,实现复杂任务处理能力的飞跃。原创 2025-11-14 22:08:11 · 381 阅读 · 0 评论 -
【读论文】基于LLM增强的全双工对话
当前的语音助手,尽管功能日益强大,但其交互模式大多仍停留在“对讲机”式的半双工(half-duplex)阶段:用户说,系统听;系统说,用户等。这种模式割裂了对话的连续性,导致了延迟和不自然的体验。为了打破这一瓶颈,实现真正意义上的全双工(full-duplex)——即系统能够同时“听、说、想”——是下一代口语对话系统(Spoken Dialogue Systems, SDS)的关键。原创 2025-11-13 22:13:51 · 209 阅读 · 0 评论 -
RAG文档切片新方案HiChunk:LLM重构RAG文档分块
HiChunk巧妙地将复杂的“文档结构化”任务,转换成了一个LLM擅长的文本生成任务。输入: 一篇被预先分割成句子的文档,每句带有一个行号。1: 这是第一句。2: 这是第二句,属于第一段。3: 这是新的一段的开始。...输出: 一个描述了所有“分割点”及其层级的列表。每个元组代表一个新chunk的开始。: 数字越小,层级越高(如1代表章,2代表节)。: 该行是否可以作为这个chunk的标题。原创 2025-10-27 22:01:30 · 680 阅读 · 0 评论 -
微软新模型UserLM:如何为AI助手打造一个“真实世界”模拟器
传统助手LM的训练模型学习在给定用户输入和历史对话的情况下,生成助手的下一句话。UserLM的训练“翻转”了条件和目标!模型学习在给定助手回复、历史对话和用户意图(intent)的情况下,生成用户的下一句话。微软研究院的这篇论文,其价值远不止于发布了一个新模型。它从根本上挑战了当前LLM评估领域一个被广泛采用但存在严重缺陷的方法,并提供了一个严谨、创新且有效的解决方案。“提示助手扮演用户”的不可靠性,并从模型内在分布的角度阐明了其原因。开创性地提出了UserLM这一新物种。原创 2025-10-12 22:23:18 · 353 阅读 · 0 评论 -
企业级RAG检索增强系统的设计与优化
传统的关键词搜索无法深刻理解用户意图的语义,检索增强生成(Retrieval-Augmented Generation, RAG)作为一种新兴范式,通过结合大规模语言模型(LLM)的理解生成能力与外部知识库的精准事实,成为了下一代智能搜索服务的关键。然而,将RAG应用于企业级的检索增强场景,意味着需要处理海量、异构的数据源,并应对用户开放、模糊的查询,所以如何设计一个高效的RAG系统就是实践的关键。原创 2025-10-08 16:07:40 · 312 阅读 · 0 评论 -
【工业实战】从架构到优化:企业级RAG客服对话系统的构建之道
检索增强生成(Retrieval-Augmented Generation, RAG)已成为构建智能客服对话系统的核心技术。然而,将RAG从概念验证推向企业级应用,会遇到搜索范围不精、回答内容冗余、顶层结果准确率不高等一系列严峻挑战。本文旨在从工程设计与算法优化的双重视角,系统性地剖析构建一个高性能、高可用的RAG客服对话服务的完整方案。原创 2025-10-02 20:49:05 · 129 阅读 · 0 评论 -
解读DeepSeek新模型DeepSeek*-V3.2-Exp
闪电索引器像一个“海选评委”,快速地对所有候选者(历史token)进行粗略打分;Top-k选择器则根据这个分数,选出少数优胜者进入“决赛”——即真正昂贵的主注意力计算。原创 2025-09-29 23:05:45 · 336 阅读 · 0 评论 -
【Agent博客分享】从多Agent问题到新的上下文工程方法
在构建大型语言模型(LLM)智能体的浪潮中,一个极具诱惑力的架构设计————正变得越来越流行。像AutoGen和这样的框架,都在积极推广一种理念:将一个复杂的任务分解,交给多个专门的、并行的“子智能体”去处理,最后再将结果汇总。这种模仿人类团队协作的模式,在理论上似乎能带来更高的效率和模块化。然而,来自。原创 2025-09-18 23:06:10 · 127 阅读 · 0 评论 -
字节M3-Agent:如何实现一个支持多模态长期记忆与推理的Agent
来自ByteDance Seed实验室的这篇开创性论文,提出了一个新颖的、配备了的。M3-Agent旨在模仿人类认知系统,能够处理实时视频和音频流,构建并更新一个来完成复杂任务。本文将作为一份深度技术剖析指南,带您庖丁解牛M3-Agent,从其独特的**“记忆化(Memorization)”“控制(Control)情景记忆(Episodic Memory)语义记忆(Semantic Memory)多轮迭代推理**策略,全方位揭示这个能够“看见、听见、记住、推理”的先进智能体是如何工作的。原创 2025-09-14 23:16:59 · 215 阅读 · 0 评论 -
【读论文】美团开源MOE大模型LongCat-Flash
同时,MoE的专家池中包含了N个标准的FFN专家和一个包含Z个零计算专家的池子。MoE(混合专家)架构通过在每个Transformer层中设置多个“专家”(通常是FFN块),并让每个token只被路由到少数几个专家进行计算,实现了在保持巨大总参数量的同时,大幅降低单个token前向传播的计算成本。在预训练和后训练之间,增加一个“中期训练”阶段,使用高质量的相关数据,进一步强化模型的推理和编码能力,为后续的智能体训练打下坚实基础。训练一个560B的MoE模型,对稳定性的要求极高。原创 2025-09-02 22:30:10 · 166 阅读 · 0 评论 -
【RAG Agent实战】告别“单线程”RAG:用查询理解与LangGraph构建能处理复杂意图的高级代理
我们需要一个更丰富的状态来承载QU模块的输出和后续的并行处理结果。"""高级RAG Agent的状态定义"""query: str # 用户的原始问题chat_history: List[str] # 聊天历史# QU模块的输出# RAG流程的数据# 使用字典来存储每个子查询的文档,键是子查询,值是文档列表# 最终结果LangGraph最强大的地方在于条件边(Conditional Edges),它允许我们根据状态动态地决定下一步走向。原创 2025-08-29 23:03:23 · 146 阅读 · 0 评论 -
【读代码】SQLBot:开源自然语言转SQL智能助手原理与实践
SQLBot是 DataEase 团队开源的自然语言转 SQL 智能助手,致力于让非技术用户也能通过自然语言与数据库对话,自动生成 SQL 查询,实现自助数据分析、智能BI问答、报表生成等场景。SQLBot 结合了大语言模型(LLM)、数据库元数据解析、SQL解析与执行等多项技术,具备强大的多数据库适配能力和灵活的扩展性。降低数据分析门槛,让业务人员无需掌握SQL即可获取数据洞察支持多种数据库类型,适应企业多样化数据环境提供可扩展的API和插件机制,便于集成到各类BI、数据平台和业务系统。原创 2025-08-23 16:03:47 · 527 阅读 · 0 评论 -
【读代码】深度解析 context-engineering-intro:开源上下文工程实践原理与应用
是由 coleam00 开源的上下文工程(Context Engineering)入门实践项目,旨在帮助开发者理解和掌握如何在大模型、智能体、复杂对话和知识型应用中进行结构化、可追踪、可扩展的上下文建模与管理。该项目以“上下文工程”为核心理念,强调在 AI 系统中对上下文的显式建模、动态流转和工程化管理,从而提升系统的智能性、可控性和可解释性。让开发者能够灵活定义、追踪和管理复杂的上下文信息支持多轮对话、任务链、推理、知识检索等多种场景下的上下文流转。原创 2025-08-14 22:28:46 · 5813 阅读 · 0 评论 -
【读代码】从开源项目Context-Engineering到Agent上下文工程
是由 David Kimai 开源的上下文工程(Context Engineering)框架,旨在为大模型应用、智能体系统、复杂对话和知识型应用提供结构化、可扩展、可追踪的上下文建模与管理能力。该项目提出了“上下文工程”这一新范式,强调在 AI 系统中对上下文的显式建模、动态流转和工程化管理,从而提升系统的智能性、可控性和可解释性。让开发者能够灵活定义、追踪和管理复杂的上下文信息支持多轮对话、任务链、推理、知识检索等多种场景下的上下文流转。原创 2025-08-13 22:21:02 · 298 阅读 · 0 评论 -
【读代码】深度解析 Researcher:开源自动化科研助手
Researcher是由 zhu-minjun 开源的自动化科研助手项目,旨在帮助科研人员、学生和技术爱好者高效完成文献检索、知识整理、趋势分析、报告生成等科研相关任务。Researcher 通过智能体(Agent)驱动的任务分解、工具链协作和自动化流程,极大提升了科研信息获取和知识管理的效率。自动化完成科研文献检索、摘要、整理、报告生成等流程支持多工具协作与任务链分解,适应复杂科研场景提供易用的代码基架,便于扩展和二次开发。原创 2025-08-12 23:13:57 · 185 阅读 · 0 评论 -
【读代码】深度解析 SmolAgents Open Deep Research
SmolAgents是 HuggingFace 团队开源的轻量级智能体框架,专注于自动化科研探索、信息检索、知识整理等任务。Open Deep Research 示例展示了如何利用 SmolAgents 构建一个能够自动化查找、分析、总结科研论文和技术资料的智能体系统,极大提升了科研人员的信息获取和知识管理效率。轻量级 Agent 架构,易于扩展和定制支持多工具协作(如搜索、网页抓取、摘要生成等)可自动化执行复杂科研探索任务兼容 HuggingFace 大模型生态,支持本地/云端部署。原创 2025-08-09 16:15:14 · 379 阅读 · 0 评论 -
【读论文】KAG-Thinker:升级版RAG 框架
许多 RAG 系统在面对多跳(multi-hop)问题时,要么依赖于预定义的、僵化的工作流,要么让 LLM “一步到位”地生成最终答案,其内部的推理过程如同一个“黑箱”,缺乏逻辑的严谨性、稳定性和可解释性。对于需要检索的子问题,进入深度求解阶段,通过知识边界判定、检索、聚焦与推理,最终得出子答案,再汇总成最终答案。KAG-Thinker 的核心思想是,将复杂的问答任务分解为一系列逻辑上相互关联、可独立求解的子问题,并通过一个。论文中提出了一个系统性的数据合成框架,通过多轮迭代,逐步生成高质量的训练数据。原创 2025-08-03 22:44:47 · 359 阅读 · 0 评论 -
【RAG Query Expansion论文解析】用 LLM 进行查询扩展 (Query Expansion)
这篇由 LLM 生成的“伪文档 (pseudo-document)”自然会包含与问题高度相关的词汇、概念和上下文,是进行查询扩展的绝佳材料。以其惊人的简洁和强大的效果,为我们展示了 LLM 在赋能传统信息检索任务方面的巨大潜力。然而,一个强大的 RAG 系统的背后,不仅仅依赖于高质量的知识库和先进的 LLM,更取决于一个常常被忽视但至关重要的环节——它利用 LLM 强大的知识和生成能力,将简短的查询“脑补”成一篇可能回答该查询的“伪文档”,从而极大地丰富了查询的内涵。融合,形成新的、扩展后的查询。原创 2025-07-31 21:08:02 · 517 阅读 · 0 评论 -
基于LangGraph实现一个具备反思能力的RAG Agent
我们需要一个状态对象来追踪整个反思过程。"""定义RAG反思智能体的状态"""question: str # 原始问题context: List[str] # 检索到的上下文draft_answer: str # 当前的草稿答案critique: Optional[Dict] # 来自反思模块的评审意见final_answer: Optional[str] # 最终确定的答案revision_count: int # 记录修正次数,防止无限循环。原创 2025-07-28 11:42:34 · 110 阅读 · 0 评论 -
RAG的“反思”艺术:构建能自我审视与修正答案的智能Agent
通过精巧的架构设计和Prompt工程,我们可以构建出一个能够不断审视自我、追求完美的RAG系统,为用户提供前所未有的、值得信赖的智能问答体验。通过这个内部的“辩论”过程,RAG Agent从一个简单的信息传递者,转变为一个能够自我审视、自我修正的“严谨思考者”,其输出的可靠性和质量将得到质的飞跃。它的成功与否,高度依赖于我们设计的Prompt。它将RAG的质量控制从被动的、离线的评估,转变为主动的、实时的自我检查。为了解决这些问题,我们将标准的RAG链改造为一个包含反思的、可能多步的流程。原创 2025-07-28 11:32:45 · 115 阅读 · 0 评论 -
【RAG优化之上下文管理】:深度解析复杂查询
(图示:复杂查询处理的核心流程:将一个复杂问题分解成多个子问题,对每个子问题进行独立的检索,然后将所有检索到的上下文智能地融合,最后合成最终答案)原创 2025-07-28 11:23:54 · 3203 阅读 · 0 评论 -
【RAG优化】深度剖析OCR错误,从根源修复RAG应用的识别问题
当我们将一个包含扫描页面的PDF或一张报告截图扔给RAG系统时,我们期望它能“读懂”里面的内容。利用一个强大的LLM(如GPT-4, Claude 3)的上下文理解和推理能力,对OCR输出的文本进行“智能校对”。要系统性地解决OCR问题,我们需要构建一个层次化的处理流水线,在每个环节都尽可能地减少错误的产生和传递。的输出,就可以作为高质量的文本内容,送入RAG的下一步——文本分块(Chunking)和索引。,我们可以系统性地、层层递进地消除OCR错误,显著提升输入到RAG系统中的文本质量。原创 2025-07-26 00:22:43 · 391 阅读 · 0 评论 -
【RAG Agent】Deep Searcher实现逻辑解析
是 Zilliz 团队开源的下一代 Agentic RAG(Retrieval-Augmented Generation)系统。它融合了大模型(LLM)、多模态检索、Agent 工作流和插件机制,致力于打造“可插拔、可扩展、可落地”的企业级智能检索与问答平台。支持多种 LLM(OpenAI、Qwen、Llama、GLM 等)Agent 工作流驱动,支持多步推理、工具链调用插件化设计,支持多模态检索、外部 API、知识库等扩展。原创 2025-07-20 21:59:01 · 240 阅读 · 0 评论 -
【读技术报告】Manner Agent如何管理上下文
即“上下文工程”,是指在 AI Agent 系统中,围绕“上下文”进行的设计、管理与优化工程。它不仅包括对话历史、用户信息、环境变量等基础上下文,还包括任务目标、工具状态、外部知识、长期记忆等多维度信息的结构化、动态管理与高效利用。让 Agent 始终“知道自己在做什么、为什么做、怎么做”支持多轮推理、复杂任务分解、工具链调用实现多 Agent 协作与知识共享支持长上下文与检索增强(RAG)原创 2025-07-20 11:03:46 · 130 阅读 · 0 评论 -
深度解析 rag-vector-agent-semantic-kernel:基于 Semantic Kernel 的 Agentic RAG 实践
是一个基于的开源 Agentic RAG(Retrieval-Augmented Generation)项目。它集成了向量数据库、检索增强生成、Agent 工作流和插件机制,支持多种大模型(如 OpenAI、Azure OpenAI、Ollama、Phi3 等),可用于构建企业级智能问答、知识管理、自动化助手等应用。支持多种 LLM(OpenAI、Azure、Ollama、Phi3 等)灵活的向量数据库集成(Chroma、Qdrant、Azure AI Search 等)原创 2025-07-19 22:12:39 · 208 阅读 · 0 评论
分享