- 博客(1370)
- 收藏
- 关注
原创 ICML25|不用手动调试,自动化agent问责制横空出世
一句话概括:你还在手动翻日志给AI查bug?这篇论文已经开始训练AI当“产品经理”,让它自己复盘会议纪要,找出是谁在哪一步把需求带跑偏了。
2025-07-17 20:26:53
489
原创 LangChain 的「记忆压缩术」:聊聊大模型的上下文工程设计之道
智能体执行任务离不开 上下文。上下文工程(Context Engineering)既是一门艺术,也是一门科学,其核心在于,在智能体运行轨迹的每个步骤中,精准地将恰好适量的信息注入其上下文窗口。本文将通过回顾多个热门智能体实例及相关研究论文,解构上下文工程的四大核心策略——“保存、筛选、压缩、隔离”,并深入探讨 LangGraph 如何为这些策略提供强大支持!
2025-07-17 20:25:30
141
原创 高质量奖励函数,让你告别RL探索难题!基于LLM的自动奖励生成方法R*
随着我在强化学习各个领域逐渐深入的工程实践后,我发现**奖励函数才是你真正要关注的事情**,很多时候大家都是直接用环境,根本不关心环境中奖励函数是怎么构建的,也很少有人去优化奖励函数。
2025-07-17 20:00:22
393
原创 AI智能体全面爆发:一文吃透多Agent技术发展与进化
在本文中,我们将深入探讨AI Agent的理论支撑以及其背后的第一性原理,回顾和分析第一性原理的发展轨迹,现阶段AI Agent所具备的能力,并探讨其在各个领域中的应用。接着,我们会展望AI Agent未来的发展方向,特别是在多Agent协作中的潜力和挑战。最后,我们将探讨Agent的未来技术发展及其广泛应用前景,为读者提供一个全面且深入的视角来理解和预测AI Agent的未来。
2025-07-16 20:32:13
692
原创 文档太长模型“吃不下”?15种Chunking神技,助你打造聪明绝顶的RAG系统!
你以为RAG系统的“聪明才智”全靠大模型?错!真正的高手,都是切块(Chunking)切得好!
2025-07-16 20:30:51
793
原创 Dify实现RAGFlow MCP知识库的问答
Dify更多地侧重于对话式 AI 或类似的知识库应用,在某些问题的处理上做了简化,导致在复杂的问答场景中表现不如 RAGFlow。RAGFlow是基于 RAG(Retrieval-Augmented Generation,检索增强生成)架构,通过结合检索机制和生成模型,能在问答中更好地理解上下文并生成更加准确的答案。
2025-07-16 20:29:24
444
原创 RAG彻底爆了!一文读懂其架构演进及核心要点
检索增强生成(英语:Retrieval-augmented generation, RAG ) 是赋予生成式人工智能模型信息检索能力的技术。检索增强生成优化大型语言模型(LLM) 的交互方式,让模型根据指定的一组文件回应用户的查询,并使用这些信息增强模型从自身庞大的静态训练数据中提取的信息。检索增强生成技术促使大型语言模型能够使用特定领域或更新后的信息。应用案例,包括让聊天机器人访问公司内部资料,或来自权威来源的事实信息。
2025-07-15 20:00:34
693
原创 RAGFlow引用机制揭秘:LLM引导与后端验证如何协同工作?
ragflow 显示引用为什么不通过提示词直接显示在回答中,而是通过分块后和检索片段比较向量相似度?判断引用出处?能不能直接通过提示词实现。
2025-07-15 19:58:00
1013
原创 代码量降低 80%,告别百万工时浪费:NebulaGraph 在京东物流的应用
面对日均数万人参与、月均百万级 Excel 处理、百万工时消耗的“做数”困境,以及复杂的数据权限与血缘关系挑战, **NebulaGraph 图数据库落地其智能化大数据分析平台 UData 后,实现了查询延迟降低 30%,整体查询性能提升 5 倍,权限校验响应时间 <100ms 等显著成效
2025-07-15 19:55:45
627
原创 ICML 25|MAYPL:超关系知识图谱的结构表示学习
在超关系知识图谱上进行推理和推断新知识需要理解和利用实体与关系之间的复杂相互关系。然而,大多数现有的超关系知识图谱研究没有充分利用其图结构。例如,基于Transformer的方法单独处理每个超关系事实(为简洁起见称为“事实”),未能捕捉不同事实之间的相互联系。其他一些最近的方法使用简单的一跳邻域信息来学习超关系知识图谱上的表示。虽然有研究提出了一个用于编码事实的图神经网络(GNN)层,但事实证明该GNN编码是冗余的,对整体性能没有关键影响。最近,另一种基于GNN的编码被引入,但它没有考虑每个事实中的关系和实
2025-07-14 20:09:37
270
原创 LightRAG:颠覆传统AI问答,一张“知识网”让大模型真正开窍!
还在为AI回答支离破碎而头疼?**LightRAG用一张“知识网”让大模型真正理解复杂关系
2025-07-14 20:07:45
281
原创 【Agent专题】MCP架构实战:开发者必藏!最全MCP智能代理构建指南,附实操解析
MCP代理正在颠覆智能体的边界,它不再只是“对话专家”,而是真正能与真实应用沟通并完成任务的AI大脑。
2025-07-13 10:45:00
999
原创 世界模型的变革之道:PAN 架构的突破
在追求智能体精准决策能力的道路上,世界模型的研究备受瞩目。然而,当下众多世界模型或局限于特定领域,或缺乏泛化与交互性。《Critiques of World Models》一文以其犀利的批判,直指现有模型的痛点,并且创新性地提出了 PAN 架构,为世界模型的发展提出了新思考。
2025-07-12 19:54:32
836
原创 ICML 2025 | Transformer 性能大提升:CCA-Attention 替代自注意力模块,LLM长文本建模突破
随着大语言模型(LLM)在自然语言处理中的广泛应用,长上下文建模已成为其关键能力之一。然而,随着上下文长度的增加,冗余信息积累带来的计算开销成了一个亟待解决的问题。南方科技大学与鹏城实验室的研究团队提出了 Core Context Aware Attention (CCA-Attention),该方法通过创新的全局感知池化与局部保留模块,显著减少冗余信息并提高长上下文建模的效率。实验结果表明,CCA-Attention 在处理长上下文时的计算效率和性能均优于现有方法。
2025-07-12 19:52:51
346
原创 超越RAG的搜索革命!分层框架让AI像专家团队一样深度思考
一句话概括:与其训练一个越来越大的“六边形战士”AI,不如组建一个各有所长的“复仇者联盟”,这篇论文就是那本“联盟组建手册”。(原论文题目见文末,点击阅读原文可直接跳转至原文链接,Published on arxiv on 03 Jul 2025, by Renmin University of China)
2025-07-11 22:20:20
357
原创 综述 | 从“说出来”到“脑中算”:Latent Reasoning的范式跃迁与无限可能
大型语言模型(LLM)在推理任务上表现惊艳,尤其当它们使用显式思维链(Chain-of-Thought, CoT)时——即像人一样一步步写下中间思考过程。这种“说出来再回答”的方式显著提升了模型的性能和可理解性,成为当前顶尖推理模型(如Qwen3、DeepSeek-R1、Gemini 2.5)的核心策略。然而,CoT存在一个根本性限制:它强迫模型将所有思考都“塞进”有限的自然语言词汇和离散的令牌(Token)中,就像只用文字聊天来解复杂数学题,表达带宽严重受限(见图1,显式CoT传输约15比特/令牌,而潜在
2025-07-11 22:18:34
692
原创 RWA+AI数字化升级全套技术落地方案
数字经济时代,**产业 +AI+RWA 数字化升级全套技术落地方案**,以**DID 钱包**、**WE07 机器人**、**Hiclub 社交、RWA生态、HIcoin一清支付、HiEX交易系统、LAWS法务、Hiworld慧宇宙**为核心,为产业转型提供系统支撑,技术驱动变革。
2025-07-10 20:07:11
1021
原创 吴恩达推出LLM 后训练免费课程,覆盖三大调优方法:SFT、DPO、RL
刚刚,吴恩达(@AndrewYNg)发布了一门新课程「**Post-training of LLMs**」。
2025-07-10 20:06:08
928
原创 LangChain介绍与环境配置
LangChain是一个专为构建语言模型驱动的应用程序而设计的开源框架。由Harrison Chase等人于2023年创建,它可以帮助开发者更好地利用大型语言模型(LLMs)的潜力,将语言模型与其他工具(如数据存储、API等)结合起来,从而创建出更强大的以语言为核心的智能应用。
2025-07-10 20:05:12
885
原创 关于在RAG检索增强中文档处理的解决方案——针对中小企业
在大模型应用领域中——RAG技术应该属于一项基础技术,不论做什么业务基本都离不开RAG的存在;但RAG技术属于典型的入门五分钟,想做好却需要花费大量时间和精力,以及成本。
2025-07-09 20:34:51
977
原创 LLM智能体在仓库级代码编译中的应用:CompileAgent的工作与潜力
在软件开发流程中,代码编译是不可或缺的一环。面对日益增长的开源项目规模和复杂性,手动进行仓库级编译往往伴随着效率低下和错误频发的问题。如何有效应对环境配置、依赖管理及编译错误等挑战,是当前自动化软件分析领域的一个重要课题。今天,我们很高兴向大家介绍一项由**奇安信星图实验室和中国科学技术大学**共同参与的研究项目——**CompileAgent**,这项工作已成功中稿**ACL 2025!**它是一个基于大型语言模型(LLM)的智能体框架,旨在探索仓库级代码编译的自动化方案。
2025-07-09 20:33:30
693
原创 浙大庄越挺 | MoA:用于大型语言模型参数高效微调的适配器异构混合方法
现有方法采用同构MoE-LoRA架构,其LoRA专家结构和容量相似,但存在表示崩溃和专家负载不平衡问题,影响LLM潜力。
2025-07-08 20:39:52
582
原创 Agent:人机交互新范式,大小模型端云协同
在人工智能浪潮席卷全球的今天,人机交互领域正经历着前所未有的变革。浙江大学张胜宇教授的讲座,为我们打开探索大小模型端云协同的思路,成为推动人工智能迈向新高度的关键力量,它所构建的人机交互新范式,将深刻改变我们与智能设备、数字世界的互动方式。
2025-07-08 20:34:27
679
原创 记录使用LoRA技术进行模型微调
作为一种常用的大模型微调方式,可以使用低秩自适应(LoRA)将大模型适配至不同的下游任务,可以降低节省训练成本。最近又在使用这个Trick,顺手记录一下。这里主要学习了来自于Diffusers提供的text2image和LCM的LoRA代码:
2025-07-07 20:26:40
1002
原创 知识图谱大模型(KG-LLM)用于链接预测
在知识图谱(KGs)中进行多跳链接预测的任务是知识图谱分析领域的一个挑战,因为它要求模型在做出预测之前,通过推理和理解所有中间连接。本文介绍了知识图谱大型语言模型(KG-LLM),这是一种利用大型语言模型(LLMs)处理知识图谱任务的新颖框架。我们首先将结构化知识图谱数据转换为自然语言,然后使用这些自然语言提示对LLMs进行微调,以增强知识图谱中的多跳链接预测。通过将知识图谱转换为自然语言提示,我们的框架旨在学习实体及其相互关系的潜在表示。为了展示KG-LLM框架的有效性,我们在此框架下对三种领先的语言模型
2025-07-07 20:24:49
893
原创 爆改RAG!让你的AI检索“见人说人话,见鬼说鬼话”——自适应检索的魔法揭秘
你以为RAG(Retrieval-Augmented Generation)只是“搜一搜+写一写”?那你就太低估AI的“社交能力”了!今天我们聊聊如何让RAG系统像老司机一样,见什么问题用什么招,检索策略随需应变,输出答案又准又妙,堪比知乎高赞答主!
2025-07-07 20:22:40
801
原创 LinKQ可视化:大模型与图谱双轮驱动下的可信知识发现工作流之旅
知识图谱(KGs)是强大的数据结构,但即便对于专家用户来说,有效探索它们依然困难。大型语言模型(LLMs)越来越多地被用来弥补这一差距,然而,关于LLMs与KGs结合使用如何塑造用户信任、探索策略或下游决策的实证研究还很少,这为基于LLM的KG可视化分析系统的关键设计挑战。为了研究这些效应,我们开发了LinkQ,一个利用大型语言模型将自然语言问题转换为结构化查询的KG探索系统。我们与KG专家合作设计了五种视觉机制,帮助用户评估KG查询和LLM响应的准确性:一个LLM-KG状态图,说明LinkQ处于探索流程的
2025-07-07 20:20:21
690
原创 周志华团队新作:LLM不再需要奖励模型?我们已经“预训练“了它!首次理论证明RL对LLM有效性
过去,大语言模型(**Large Language Models, LLMs**)的对齐依赖一个关键组件:**奖励模型(Reward Model)**。奖励模型通常基于昂贵的人类偏好数据(human preference data)训练,用于指导强化学习(**Reinforcement Learning, RL**)以优化最终策略。
2025-07-06 10:45:00
701
原创 2025年深度学习+多目标优化最新创新思路
围观了港科大等团队的最新综述,发现**深度学习+多目标优化**近年来也是话题多多,尤其在图像生成、自动驾驶、大模型训练等场景中呈现爆发式增长。
2025-07-05 10:45:00
923
原创 大语言模型推理系统综述
过去几年见证了专业的大语言模型(LLM)推理系统,例如 vLLM、SGLang、Mooncake 和 DeepFlow,以及通过 ChatGPT 等服务快速采用 LLM。 推动这些系统设计工作的是 LLM 请求处理独特的自回归特性,这促使人们开发新的技术,以在高容量和高速度的工作负载下实现高性能,同时保持较高的推理质量。 虽然许多这些技术在文献中都有讨论,但它们尚未在完整推理系统的框架下进行分析,系统本身也未经过分析和比较。
2025-07-04 13:07:47
942
1
原创 继提示词工程、RAG技术浪潮后,LangChain领域中上下文工程正成为新的热门方向!
身处AI浪潮之中,提示词工程、RAG、记忆这些术语或许已不陌生,但上下文工程(context engineering)这一领域却尚未引起广泛关注。 上下文工程(context engineering)这一领域却尚未引起广泛关注。
2025-07-03 21:55:54
841
原创 Context Engineering:AI 工程的下一个前沿阵地?
还在为智能体(Agent)表现不稳定而抓狂?或许不是模型的问题,而是你“说得不够清楚”。随着 AI 应用从单轮 Prompt 演化为具备记忆、检索、调用能力的多步骤系统,**Context Engineering**(上下文工程)正逐步成为 LLM 应用中的关键能力——它决定了你的 AI 是否真的“理解”你要做什么。
2025-07-03 21:55:12
1054
原创 LangChain教程——Chain链
chain链可以将多个组件组合在一起,以创建一个单一、连贯的应用程序,例如:创建一个链接受用户输入,使用提示词模板对其进行格式化并传递给LLM。
2025-07-02 19:33:24
667
原创 MLLM认知革命!让大模型直接理解和生成文本化图像信息!
一句话概括:彻底抛弃给AI装两套系统(一套理解,一套生成)的笨办法,直接把图像编码成LLM能听懂的“黑话”,实现了真正的“读写合一”。(原论文题目见文末,点击阅读原文可直接跳转至原文链接,Published on arxiv on 23 Jun 2025, by CUHK MMLab & ByteDance Seed)
2025-07-02 19:31:35
636
原创 9种 MCP 架构设计模式剖析
MCP 是 AI 应用与能力(tools、prompts、resources)之间的通用连接器,类似于 USB-C 为电子设备之间的连接提供了标准化接口。
2025-07-02 19:29:34
819
原创 向量数据库的基本概念、技术原理、工程实践与选型指南
我们正处于人工智能变革之中,AI正在颠覆所有涉及的行业,带来巨大的创新,但也带来了新的挑战。对于涉及大模型、生成式人工智能和语义搜索的应用而言,高效的数据处理比以往任何时候都更加重要。所有这些新应用都依赖于向量嵌入,这是一种向量数据表示,它包含语义信息,对于人工智能理解并保持在执行复杂任务时可以利用的长期记忆至关重要。这就是我们今天介绍的主角——向量数据库。
2025-06-30 20:41:55
686
原创 统一架构新思考,北大团队UniWorld-V1统一大模型
本篇分享论文`UniWorld-V1: High-Resolution Semantic Encoders for Unified Visual Understanding and Generation`,北大团队提出 UniWorld-V1 —— 一个整合高分辨率对比语义编码器与多模态大模型的统一生成框架,仅用 2.7M 样本即可同时支持图像理解、生成、编辑与感知等多种任务。
2025-06-30 20:39:49
590
原创 RLVR来做Agent任务能力增强训练
这个其实写得挺清楚的介绍了一个名为 **L-Zero (L0)** 的新系统,旨在将大型语言模型(LLMs)训练成能够自主完成复杂、多步骤任务的通用智能体(General Agents)。
2025-06-30 20:39:02
686
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人