学习
文章平均质量分 89
great983
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
推理模型RL综述
强化学习并非不需要数据,而是**它自己就是数据的生产者**。原创 2025-09-13 22:46:11 · 1011 阅读 · 0 评论 -
Writing effective tools for agents — with agents
AI 代理的“上下文窗口”(Context)是其最宝贵的资源,类似于人类的“注意力”或“短期记忆”。你不会想通过从头到尾读完一本字典来查找一个词的意思(消耗巨大注意力),你会直接使用索引或按字母顺序查找(高效的工具)。是的,它提出了一个非常实用的、以评估为驱动的迭代开发循环。这两个都是为了让工具对代理更“友好”(Ergonomic)的关键操作。的思想在 AI 领域的应用。,从而实现性能的自我提升。这极大地提升了优化的效率和规模。这确实是全文最“赛博朋克”也最具启发性的一点。这是一个非常深刻的观点。原创 2025-09-12 23:03:36 · 979 阅读 · 0 评论 -
Youtu-GraphRAG
它的核心思想是“垂直统一”,即通过一个**图谱模式(Graph Schema)**将图谱的构建和检索两个环节紧密地结合在一起,让它们协同工作。整个框架由智能体(Agent)驱动,使其更加灵活和强大。总而言之,Youtu-GraphRAG 通过垂直统一的智能体设计,将图谱的构建和检索紧密耦合,不仅提升了复杂推理的准确性,还大大提高了系统的效率,并为如何公平地评估这类系统提供了新的思路。论文在六个不同的数据集上进行了广泛的实验,结果表明 Youtu-GraphRAG 全面超越了之前的先进方法。原创 2025-09-12 21:17:35 · 511 阅读 · 0 评论 -
Meta超级智能实验室首篇论文:REFRAG: Rethinking RAG based Decoding
REFRAG 通过让一个轻量级的“助理”模型对参考信息进行智能压缩和筛选,只把最精华的内容喂给大模型“大脑”,从而在保证答案质量的同时,实现了RAG系统响应速度的革命性提升。这个“助理”并不会把所有参考书都直接扔给考生,而是先自己快速地把这些书看完,并为每一章制作一张**“内容摘要卡片”了两个现有的模型:一个负责生成答案的主力大模型(Decoder)和一个负责压缩信息的辅助小模型(Encoder)。这样一来,考生(大模型)需要阅读的内容就大大减少了,可以迅速开始答题。,您可以把它比作一个给考生配备的“原创 2025-09-09 12:00:08 · 371 阅读 · 0 评论 -
Agent记忆系统分析
它的目标不只是“存储”信息,而是要让信息在系统中“活起来”——被理解、被关联、被演化、被高效利用,最终赋能智能体的决策和行动。这是文章的核心部分,通过分析市面上多个主流记忆框架,展示了“怎么办”的具体路径。这是一个非常经典的“用类比来解释新东西”的范例。这个框架告诉我们,一个完善的 AI 记忆系统,不应该只是一个简单的数据库,而是一个模拟大脑复杂机制的、分层分类的动态系统。它告诉我们,未来的 AI 应用,竞争力不仅在于模型本身,更在于如何为模型构建一个高效、智能、动态演化的“记忆大脑”。原创 2025-08-15 21:10:14 · 596 阅读 · 0 评论 -
从自然语言到NL2SQL
如果说数据库是一个巨大的、藏书丰富的图书馆,而 SQL 是图书管理员才能看懂的“索引卡片查询语言”。这篇文章系统性地梳理了 NL2SQL 技术的全貌,从基础定义到前沿解法,构成了一幅清晰的技术路线图。它不仅解释了“是什么”,更深入地探讨了“怎么办”。对于开发者而言,最有价值的部分是其对核心挑战的拆解以及“七种武器”般的解决方案,尤其是。它启发我们,解决一个复杂的 AI 问题,往往不是单一模型的胜利,而是一套结合了。这是文章的核心,详细阐述了实现高质量 NL2SQL 的关键技术点和解决方案。原创 2025-08-15 21:03:31 · 697 阅读 · 0 评论 -
构建可靠的AI Agent
这篇文章提供了一个非常全面的AI Agent开发框架,从技术细节到项目哲学。这篇文章可以看作是一份面向程序员的AI Agent开发实战指南。它清晰地指出,在当前技术背景下,通过这些动手实践,你可以将文章中的理论内化为自己的技能,真正掌握构建可靠AI Agent的艺术。原创 2025-08-15 20:52:58 · 536 阅读 · 0 评论 -
从 0 到 1 搭建 LLM 智能简历筛选 Agent 系统的分析与思考
文章首先明确了要解决的问题。效率低下: 人工处理海量简历,是典型的劳动密集型工作。智能性不足: 依赖关键词匹配,如同Ctrl+F,无法理解语义。例如,无法将“精通JS”和“熟悉JavaScript”等同看待,容易错失优秀人才。难以量化: 匹配度凭感觉,缺乏客观、多维度的评估体系。交互性差: 无法理解“我想要个厉害点的Java”这类自然语言需求。容易引入偏见: 人工筛选不可避免地会带入主观偏好。本质: 这个问题的本质是,在“非结构化数据”(简历)和“模糊需求”(招聘要求)之间,建立一个。原创 2025-08-11 12:44:50 · 869 阅读 · 0 评论 -
分析多智能体框架的实践
这篇文章不仅仅是一个技术实践分享,更是一套构建复杂AI应用的思想体系和方法论。这玩意儿的本质是什么?它的本质是一个受约束的、流程化的、可观测的智能体“组织”。它承认并规避了当前大模型的内在缺陷(注意力发散、不确定性),通过精巧的工程设计(分工、协议、状态管理),将大模型的能力引导到能够创造确定性价值的轨道上来。它用代码的“秩序”约束了模型的“混沌”,从而实现了稳定、高效的复杂任务处理。对你的实践建议与启发批判性地看待Agent: 不要盲目崇拜ReAct或其他“自主”Agent框架。原创 2025-08-11 12:35:23 · 803 阅读 · 0 评论 -
前端AI生码技术的创新实践
就像一个眼神好但有点色弱的画师(WeaveFox)画出了轮廓,然后一位严谨的配色师(设计规范)为他填充了标准色,最后一位拿着设计原稿的质检员(DSL召回)检查并修正了所有细节。这篇文章为你展示了如何像一名系统架构师一样思考,将一个复杂问题拆解,并用工程化的手段,一步步构建出一个优雅、高效的解决方案。这篇文章提供了一个非常精彩的AI工程实践案例。这套方案的成功建立在三个关键的技术点之上,它们形成了能力互补的“铁三角”。为了解决上述痛点,文章提出了一套整合了。这个流程将原本复杂的多步操作,简化为了。原创 2025-08-08 18:51:17 · 862 阅读 · 0 评论 -
硬核拆解大模型
文章开篇就提出了一个深刻的观察:从 2019 年的 GPT-2 到 2025 年的 Llama 4 和 Kimi K2,尽管模型能力天翻地覆,但其。归一化层像训练过程中的“稳定器”,防止梯度爆炸或消失。注意力机制是 Transformer 的核心,决定了模型如何处理上下文。MoE (Mixture-of-Experts) 是 2025 年的“回归之王”,旨在用。的方式,在不显著增加推理计算量的前提下,大幅提升模型参数量(知识容量)。文章详细拆解的技术点,可以清晰地归纳为以下四个关键领域的演进。原创 2025-08-08 18:35:12 · 947 阅读 · 0 评论 -
MetaAgent框架——让AI自己设计AI
MetaAgent 利用大语言模型(LLM)作为“总设计师”,通过三个阶段,将抽象的任务描述转化为具体的、可执行的 FSM。文章指出了当前构建强大、通用的多智能体系统面临的三大核心障碍,这也是 MetaAgent 试图解决的痛点。这篇文章为我们打开了一扇新的大门,从“使用 Agent”上升到了“设计 Agent 的生产线”。MetaAgent 的核心思想极具颠覆性。它不再是直接“制造”智能体,而是。的元框架(Meta-Framework)。原创 2025-08-07 12:11:40 · 494 阅读 · 0 评论 -
Agent框架——Cognitive Kernel-Pro
click_id=4。原创 2025-08-07 12:03:59 · 778 阅读 · 0 评论 -
Transformer 架构全景解析
这篇文章可以看作是一部关于 Transformer 的“传记”,它讲述了 Transformer 的“家世背景”(为什么被发明)、“核心天赋”(工作原理)、“巨大成就”(为何能统治 AI 领域)以及它的“后代们”(衍生模型)。Transformer 的成功本质上是一次计算范式的胜利。它用可高度并行的全局关联计算(自注意力)取代了难以并行的串行依赖计算(RNN),解决了长距离遗忘问题,并极大地释放了现代硬件(GPU)的潜力,使得训练前所未有的大模型成为可能。辩证看待:并行能力强、全局视野好。原创 2025-08-06 12:49:04 · 599 阅读 · 0 评论 -
混合检索数据库PolarDB介绍
它没有把数据库仅仅看作一个“存储后端”,而是将其升级为一个**“内置AI能力的智能数据处理平台”**。它将原本分离的三个环节统一到了一个系统中,实现了“用SQL管理向量全生命周期”。开发者无需关心向量的生成、存储和索引维护,一切都在熟悉的SQL环境中自动完成。在构建RAG(检索增强生成)或Agent记忆这类AI应用时,开发者普遍面临一个。现在,使用PolarDB,你只需要。原创 2025-08-05 18:36:04 · 536 阅读 · 0 评论 -
AI 智能体意图识别的进化之路
自然语言理解(NLU)。判断用户想做什么。这是对话的“方向盘”,如果方向错了,后续一切都毫无意义。就像你去餐厅,服务员首先要搞清楚你是想“点餐”、“结账”还是“找洗手间”。提取用户请求中的关键参数。这是执行任务的“清单”,缺少了关键信息,任务就无法完成。你说“点餐”,服务员接着会问“点什么菜?”、“几人份?”、“有没有忌口?这些就是槽位。这两个任务共同将人类模糊、非结构化的自然语言,转换为机器可以理解和执行的、结构化的指令。这篇文章的全部内容,都是围绕如何更准确、更高效、更健壮地完成这个转换过程。原创 2025-08-05 12:12:08 · 787 阅读 · 0 评论 -
DeepSieve 框架,解决RAG多源异构知识难题
文章首先一针见血地指出了当前检索增强生成(RAG)技术面临的两大“天花板”级别的难题,这也是 DeepSieve 框架诞生的背景。逻辑推理的“单行道”:无法处理“多跳(Multi-hop)”问题传统 RAG 的工作模式是“一步到位”的语义匹配。它将一个复杂问题的所有关键词混合在一起,形成一个模糊的查询意图,试图在知识库中一次性找到一个“完美匹配”的文档。这就像一个不擅长规划的快递员。原创 2025-08-05 12:03:17 · 957 阅读 · 0 评论 -
分析基于 Tablestore 的轻量级 Memory 框架实践
文章开篇点明了 AI Agent 的核心挑战。一个完整的 AI Agent 不仅仅是一个大型语言模型(LLM),它更像一个智能体,其公式可以隐喻为:[ \text{AI Agent} = \text{LLM (大脑)} + \text{Memory (记忆)} + \text{Planning (规划)} + \text{Tools (工具)} ]Memory (短期/情景记忆):记录即时发生的对话、事件和状态。好比人类的“工作记忆”,用于处理眼前的任务。需要毫秒级的快速响应、支持高并发。原创 2025-08-04 18:39:20 · 581 阅读 · 0 评论 -
解析从单智能体到多智能体的React框架设计与实现
如何将通用的大语言模型(LLM)能力,转化为能解决复杂、多步骤领域问题的专用、高效且灵活的AI工具?作者认为,简单的“提示词→LLM→答案”模式生产力有限。为了解决复杂任务,AI需要像人一样具备**“思考-行动-观察”的循环能力。这就是React(Reason + Act)框架**的核心思想。传统的LLM应用像一个计算器,你输入一个问题,它直接给一个答案。而React框架下的智能体(Agent)更像一个手艺人。面对“打造一把椅子”的任务,手艺人不会一步到位。原创 2025-08-04 12:30:04 · 942 阅读 · 0 评论 -
大语言模型LLM原理
这篇文章可以看作是一部关于大语言模型(LLM)的“前世今生”与“解剖全书”。它从“是什么”出发,追溯了其“从哪来”的历史,深入剖析了其内部“如何工作”的核心机制,最后解释了其“如何实现”的工程挑战。:当模型看到 “The cat sat on the mat” 时,它如何理解 “it” 在 “it was tired” 中指的是 “cat” 而不是 “mat”?如果说前馈传播是模型“思考”的过程,那么反向传播就是模型“反思和学习”的过程。这部分从工程实践角度,解答了“如何用现有硬件训练如此庞大的模型”。原创 2025-08-01 19:58:28 · 621 阅读 · 0 评论 -
解析:为什么思维链(Chain-of-Thought, CoT)提示能够显著提升大型语言模型(LLM)的推理能力
用结构化模板进行模仿,用模仿来收窄概率分布,并根据任务类型动态调整神经元的激活策略(剪枝或放大)。它给我们的最大启发是:我们应该从一个**“概率优化师”**而非“人类教师”的角度去设计提示词。我们的目标不是“教会”模型如何思考,而是通过提供精巧的“脚手架”(结构化提示),来引导模型的概率流向我们期望的结果。下一步的实践建议建立你自己的CoT模板库: 针对你常用的任务(如代码生成、数据分析、文章总结),创建几个高效的、结构化的CoT模板。A/B测试。原创 2025-08-01 13:08:07 · 821 阅读 · 0 评论 -
全面解析CNN:从数学原理到代码实践的计算机视觉核心
而CNN中的一个卷积核只处理图像的一小块区域(局部连接),并且这个卷积核的参数在整张图像上是共享的,这使得模型参数量极大降低,训练效率显著提升。而CNN通过在图像上滑动的卷积核,逐层提取从局部到全局的特征,完美地利用了这一结构信息。通过在多个卷积层中堆叠这些操作,CNN能够从简单的边缘、颜色块,逐步构建出物体的部件、乃至整个物体等越来越复杂的特征表示。一个典型的CNN模型由多个功能层堆叠而成,像一条精密的流水线,逐步将原始像素转化为高级语义特征。要理解CNN,必须先理解“卷积”这一数学运算的本质。原创 2025-08-01 12:15:07 · 610 阅读 · 0 评论 -
上下文管理分析
这篇文章结构清晰,逻辑严谨。它首先定义了问题的本质,然后通过丰富的案例和研究数据剖析了问题的具体表现(四大失效模式),最后给出了系统性的解决方案(六种管理策略),形成了一个从“是什么”到“为什么”再到“怎么办”的完整闭环。AI 智能体的“智能”不仅仅体现在大模型的推理能力上,更体现在其驾驭和管理信息流的能力上。长上下文窗口为我们提供了更高的“天花板”,但这需要我们用更精细、更巧妙的工程方法去利用它。未来的 AI 工程化,很大程度上就是上下文工程化。原创 2025-07-31 12:29:13 · 649 阅读 · 0 评论 -
大模型后训练技术解析
核心洞察:大模型的未来发展,已从单纯依赖预训练的“堆料”模式,转向了后训练阶段的精细化、结构化、智能化的“雕琢”模式。强化学习和推理时计算优化,是挖掘模型潜力的关键。给你的实践建议动手实践PEFT:从LoRA开始。找一个开源模型(如Qwen, Llama),选择一个你感兴趣的小任务(如特定风格的文本生成、代码翻译),使用Hugging Face的peft库,亲手实践一下LoRA微调。你会直观地感受到其高效和便捷。将“慢思考”融入你的代码:在你自己的项目中,可以借鉴<think>标签的思想。原创 2025-07-31 12:21:49 · 944 阅读 · 0 评论 -
RLHF技术实践分析
文章开篇指出了一个根本性问题:无论是语言模型还是文生图模型,它们通过在海量数据上进行自监督预训练,学会的是数据的“平均分布”,但这并不等同于人类期望的“理想行为”。文生图的“好坏”维度更复杂(语义、美学、结构合理性),传统评价指标(如FID, CLIPScore)无法全面衡量,而一个好的RM可以成为更贴近人类感知的评估标准。它不再让模型去被动地拟合静态数据集,而是让模型在一个“人类偏好”的指导下,主动探索如何生成更令人满意的结果。RLHF在文生图领域的应用逻辑一脉相承,但针对扩散模型的特性进行了适配。原创 2025-07-30 18:39:40 · 569 阅读 · 0 评论 -
《智能体常见的记忆(Memory)策略与技术实现》解析
记忆策略并非单纯的“存储”,而是一套关于“如何选择性遗忘、如何高效压缩、以及如何在需要时精准回忆”的智能管理系统。解决复杂问题时,可以先从最简单的方案入手,然后不断识别其瓶颈,并引入更高级的抽象和机制来解决它。原创 2025-07-29 20:19:24 · 898 阅读 · 0 评论 -
如何写系统提示词
这篇文章的核心论点是:我们应该停止将编写复杂提示词(Prompt)看作是“堆砌规则”的手工艺,而应将其提升为一种“构建系统”的软件工程。文章最后通过一个详尽的“AI编程助手”提示词重构案例,完整展示了这套方法论如何将一个混乱的“毛线球”重构为一座结构清晰的“摩天大楼”。希望这份系统性的总结能帮助你更深刻地理解这篇文章的精髓,并将其运用到你的代码实践和对AI的探索中。它认为,一个强大的AI智能体,并非诞生于“更多”的规则,而是诞生于“更好”的结构。设计好的蓝图是给人看的,而最终的提示词是给AI看的。原创 2025-07-29 19:06:35 · 855 阅读 · 0 评论 -
构建企业级 AI 应用的实践全景
成功的企业级 AI 应用(AI Agent)不仅仅是几行聪明的代码,而是一个复杂的、需要系统性工程方法来构建的智能系统。它详细阐述了从理想到现实的完整落地路径,涵盖了从顶层设计、核心组件、基础设施到底层实现的全过程。第一部分:道 (Why & What) - 理论、本质与顶层设计这一部分回答了“我们要做什么”以及“这东西的本质是什么”。1. 问题的拆解:AI 应用的本质是什么?它与传统应用有何根本不同?构成 AI 应用的核心要素是什么?构建 AI 应用的两种主要路径是什么?原创 2025-07-28 12:26:56 · 818 阅读 · 0 评论 -
现代 LLM 架构比较
从以下几个方面为你进行拆解、总结和提炼,并提供我的思考和实践建议。原创 2025-07-26 08:49:25 · 468 阅读 · 0 评论 -
Kiro Spec工作流的启示
这套工作流是亚马逊为其 Kiro IDE 设计的一套软件工程最佳实践,旨在将模糊的开发想法(Vibe Coding)变得规范、可控。:一个优秀的思想、一个结构化的方法论,其价值远超任何特定工具。总而言之,这篇文章不仅介绍了一个工具,更是揭示了一种先进的、可移植的、与 AI 深度协同的软件开发哲学。,让它变成一个遵循严格软件工程规范的“项目经理”,然后再由这个“项目经理AI”去指导“程序员AI”完成具体编码任务。这个成果雄辩地证明了,顶级的工作流范式 + 强大的 AI 执行平台 = 极高的开发效率和质量。原创 2025-07-26 08:39:26 · 1336 阅读 · 0 评论 -
深度解析多模态大模型在复杂商品理解中的协同优化实践
SFT 教会了模型如何解题,但在面临多个“看似都对”的选项时,模型依然会犹豫不决,稳定性不足。文章要解决的核心问题是:如何从淘宝家装商品的各种信息(SKU文本、SKU图片、详情图)中,文章清晰地展示了一个技术团队解决问题的完整心路历程,可以分为三个循序渐进的阶段。Prompt 工程终有上限,对于复杂的推理和选择任务,模型依然会“犯错”。为了追求更高的准确率和效率,团队转向了微调。两者结合,才最终打造出一个既懂招式、又会实战的“冠军模型”。这不仅仅是一个简单的信息提取任务,其本质是一个复杂的。原创 2025-07-25 19:20:46 · 936 阅读 · 0 评论 -
RDS Supabase
RDS Supabase 通过将开发友好的 BaaS 平台与企业级的云数据库能力深度融合,极大地降低了构建现代化、可扩展、AI 驱动的全栈应用的门槛和成本,让开发者能更专注于业务创新而非底层设施。下一步实践建议:亲自按照教程步骤,搭建一个属于自己的 Agentic RAG 应用。你可以尝试更换知识库文档,比如上传几篇你感兴趣的技术文章或你的个人简历,看看它的问答效果。思考这种 BaaS 模式的适用边界。它在什么场景下最有效(如 MVP、初创项目、内部工具)?原创 2025-07-25 19:01:35 · 637 阅读 · 0 评论
分享