自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1358)
  • 收藏
  • 关注

原创 【Agent专题】MCP架构实战:开发者必藏!最全MCP智能代理构建指南,附实操解析

MCP代理正在颠覆智能体的边界,它不再只是“对话专家”,而是真正能与真实应用沟通并完成任务的AI大脑。

2025-07-13 10:45:00 523

原创 世界模型的变革之道:PAN 架构的突破

在追求智能体精准决策能力的道路上,世界模型的研究备受瞩目。然而,当下众多世界模型或局限于特定领域,或缺乏泛化与交互性。《Critiques of World Models》一文以其犀利的批判,直指现有模型的痛点,并且创新性地提出了 PAN 架构,为世界模型的发展提出了新思考。

2025-07-12 19:54:32 634

原创 ICML 2025 | Transformer 性能大提升:CCA-Attention 替代自注意力模块,LLM长文本建模突破

随着大语言模型(LLM)在自然语言处理中的广泛应用,长上下文建模已成为其关键能力之一。然而,随着上下文长度的增加,冗余信息积累带来的计算开销成了一个亟待解决的问题。南方科技大学与鹏城实验室的研究团队提出了 Core Context Aware Attention (CCA-Attention),该方法通过创新的全局感知池化与局部保留模块,显著减少冗余信息并提高长上下文建模的效率。实验结果表明,CCA-Attention 在处理长上下文时的计算效率和性能均优于现有方法。

2025-07-12 19:52:51 241

原创 超越RAG的搜索革命!分层框架让AI像专家团队一样深度思考

一句话概括:与其训练一个越来越大的“六边形战士”AI,不如组建一个各有所长的“复仇者联盟”,这篇论文就是那本“联盟组建手册”。(原论文题目见文末,点击阅读原文可直接跳转至原文链接,Published on arxiv on 03 Jul 2025, by Renmin University of China)

2025-07-11 22:20:20 246

原创 综述 | 从“说出来”到“脑中算”:Latent Reasoning的范式跃迁与无限可能

大型语言模型(LLM)在推理任务上表现惊艳,尤其当它们使用显式思维链(Chain-of-Thought, CoT)时——即像人一样一步步写下中间思考过程。这种“说出来再回答”的方式显著提升了模型的性能和可理解性,成为当前顶尖推理模型(如Qwen3、DeepSeek-R1、Gemini 2.5)的核心策略。然而,CoT存在一个根本性限制:它强迫模型将所有思考都“塞进”有限的自然语言词汇和离散的令牌(Token)中,就像只用文字聊天来解复杂数学题,表达带宽严重受限(见图1,显式CoT传输约15比特/令牌,而潜在

2025-07-11 22:18:34 527

原创 RWA+AI数字化升级全套技术落地方案

数字经济时代,**产业 +AI+RWA 数字化升级全套技术落地方案**,以**DID 钱包**、**WE07 机器人**、**Hiclub 社交、RWA生态、HIcoin一清支付、HiEX交易系统、LAWS法务、Hiworld慧宇宙**为核心,为产业转型提供系统支撑,技术驱动变革。

2025-07-10 20:07:11 1001

原创 吴恩达推出LLM 后训练免费课程,覆盖三大调优方法:SFT、DPO、RL

刚刚,吴恩达(@AndrewYNg)发布了一门新课程「**Post-training of LLMs**」。

2025-07-10 20:06:08 909

原创 LangChain介绍与环境配置

LangChain是一个专为构建语言模型驱动的应用程序而设计的开源框架。由Harrison Chase等人于2023年创建,它可以帮助开发者更好地利用大型语言模型(LLMs)的潜力,将语言模型与其他工具(如数据存储、API等)结合起来,从而创建出更强大的以语言为核心的智能应用。

2025-07-10 20:05:12 766

原创 关于在RAG检索增强中文档处理的解决方案——针对中小企业

在大模型应用领域中——RAG技术应该属于一项基础技术,不论做什么业务基本都离不开RAG的存在;但RAG技术属于典型的入门五分钟,想做好却需要花费大量时间和精力,以及成本。

2025-07-09 20:34:51 961

原创 LLM智能体在仓库级代码编译中的应用:CompileAgent的工作与潜力

在软件开发流程中,代码编译是不可或缺的一环。面对日益增长的开源项目规模和复杂性,手动进行仓库级编译往往伴随着效率低下和错误频发的问题。如何有效应对环境配置、依赖管理及编译错误等挑战,是当前自动化软件分析领域的一个重要课题。今天,我们很高兴向大家介绍一项由**奇安信星图实验室和中国科学技术大学**共同参与的研究项目——**CompileAgent**,这项工作已成功中稿**ACL 2025!**它是一个基于大型语言模型(LLM)的智能体框架,旨在探索仓库级代码编译的自动化方案。

2025-07-09 20:33:30 675

原创 技术总结之RAG用于文档信息抽取及多模态大模型两阶段训练范式

我们来看几个问题,一个是AG竞赛总结及用于信息抽取的实现范式,看看目前怎么解。

2025-07-09 20:32:13 584

原创 浙大庄越挺 | MoA:用于大型语言模型参数高效微调的适配器异构混合方法

现有方法采用同构MoE-LoRA架构,其LoRA专家结构和容量相似,但存在表示崩溃和专家负载不平衡问题,影响LLM潜力。

2025-07-08 20:39:52 569

原创 Agent:人机交互新范式,大小模型端云协同

在人工智能浪潮席卷全球的今天,人机交互领域正经历着前所未有的变革。浙江大学张胜宇教授的讲座,为我们打开探索大小模型端云协同的思路,成为推动人工智能迈向新高度的关键力量,它所构建的人机交互新范式,将深刻改变我们与智能设备、数字世界的互动方式。

2025-07-08 20:34:27 664

原创 记录使用LoRA技术进行模型微调

作为一种常用的大模型微调方式,可以使用低秩自适应(LoRA)将大模型适配至不同的下游任务,可以降低节省训练成本。最近又在使用这个Trick,顺手记录一下。这里主要学习了来自于Diffusers提供的text2image和LCM的LoRA代码:

2025-07-07 20:26:40 990

原创 知识图谱大模型(KG-LLM)用于链接预测

在知识图谱(KGs)中进行多跳链接预测的任务是知识图谱分析领域的一个挑战,因为它要求模型在做出预测之前,通过推理和理解所有中间连接。本文介绍了知识图谱大型语言模型(KG-LLM),这是一种利用大型语言模型(LLMs)处理知识图谱任务的新颖框架。我们首先将结构化知识图谱数据转换为自然语言,然后使用这些自然语言提示对LLMs进行微调,以增强知识图谱中的多跳链接预测。通过将知识图谱转换为自然语言提示,我们的框架旨在学习实体及其相互关系的潜在表示。为了展示KG-LLM框架的有效性,我们在此框架下对三种领先的语言模型

2025-07-07 20:24:49 885

原创 爆改RAG!让你的AI检索“见人说人话,见鬼说鬼话”——自适应检索的魔法揭秘

你以为RAG(Retrieval-Augmented Generation)只是“搜一搜+写一写”?那你就太低估AI的“社交能力”了!今天我们聊聊如何让RAG系统像老司机一样,见什么问题用什么招,检索策略随需应变,输出答案又准又妙,堪比知乎高赞答主!

2025-07-07 20:22:40 796

原创 LinKQ可视化:大模型与图谱双轮驱动下的可信知识发现工作流之旅

知识图谱(KGs)是强大的数据结构,但即便对于专家用户来说,有效探索它们依然困难。大型语言模型(LLMs)越来越多地被用来弥补这一差距,然而,关于LLMs与KGs结合使用如何塑造用户信任、探索策略或下游决策的实证研究还很少,这为基于LLM的KG可视化分析系统的关键设计挑战。为了研究这些效应,我们开发了LinkQ,一个利用大型语言模型将自然语言问题转换为结构化查询的KG探索系统。我们与KG专家合作设计了五种视觉机制,帮助用户评估KG查询和LLM响应的准确性:一个LLM-KG状态图,说明LinkQ处于探索流程的

2025-07-07 20:20:21 679

原创 周志华团队新作:LLM不再需要奖励模型?我们已经“预训练“了它!首次理论证明RL对LLM有效性

过去,大语言模型(**Large Language Models, LLMs**)的对齐依赖一个关键组件:**奖励模型(Reward Model)**。奖励模型通常基于昂贵的人类偏好数据(human preference data)训练,用于指导强化学习(**Reinforcement Learning, RL**)以优化最终策略。

2025-07-06 10:45:00 660

原创 2025年深度学习+多目标优化最新创新思路

围观了港科大等团队的最新综述,发现**深度学习+多目标优化**近年来也是话题多多,尤其在图像生成、自动驾驶、大模型训练等场景中呈现爆发式增长。

2025-07-05 10:45:00 899

原创 大语言模型推理系统综述

过去几年见证了专业的大语言模型(LLM)推理系统,例如 vLLM、SGLang、Mooncake 和 DeepFlow,以及通过 ChatGPT 等服务快速采用 LLM。 推动这些系统设计工作的是 LLM 请求处理独特的自回归特性,这促使人们开发新的技术,以在高容量和高速度的工作负载下实现高性能,同时保持较高的推理质量。 虽然许多这些技术在文献中都有讨论,但它们尚未在完整推理系统的框架下进行分析,系统本身也未经过分析和比较。

2025-07-04 13:07:47 927 1

原创 继提示词工程、RAG技术浪潮后,LangChain领域中上下文工程正成为新的热门方向!

身处AI浪潮之中,提示词工程、RAG、记忆这些术语或许已不陌生,但上下文工程(context engineering)这一领域却尚未引起广泛关注。 上下文工程(context engineering)这一领域却尚未引起广泛关注。

2025-07-03 21:55:54 821

原创 Context Engineering:AI 工程的下一个前沿阵地?

还在为智能体(Agent)表现不稳定而抓狂?或许不是模型的问题,而是你“说得不够清楚”。随着 AI 应用从单轮 Prompt 演化为具备记忆、检索、调用能力的多步骤系统,**Context Engineering**(上下文工程)正逐步成为 LLM 应用中的关键能力——它决定了你的 AI 是否真的“理解”你要做什么。

2025-07-03 21:55:12 1007

原创 LangChain教程——Chain链

chain链可以将多个组件组合在一起,以创建一个单一、连贯的应用程序,例如:创建一个链接受用户输入,使用提示词模板对其进行格式化并传递给LLM。

2025-07-02 19:33:24 658

原创 MLLM认知革命!让大模型直接理解和生成文本化图像信息!

一句话概括:彻底抛弃给AI装两套系统(一套理解,一套生成)的笨办法,直接把图像编码成LLM能听懂的“黑话”,实现了真正的“读写合一”。(原论文题目见文末,点击阅读原文可直接跳转至原文链接,Published on arxiv on 23 Jun 2025, by CUHK MMLab & ByteDance Seed)

2025-07-02 19:31:35 613

原创 9种 MCP 架构设计模式剖析

MCP 是 AI 应用与能力(tools、prompts、resources)之间的通用连接器,类似于 USB-C 为电子设备之间的连接提供了标准化接口。

2025-07-02 19:29:34 804

原创 向量数据库的基本概念、技术原理、工程实践与选型指南

我们正处于人工智能变革之中,AI正在颠覆所有涉及的行业,带来巨大的创新,但也带来了新的挑战。对于涉及大模型、生成式人工智能和语义搜索的应用而言,高效的数据处理比以往任何时候都更加重要。所有这些新应用都依赖于向量嵌入,这是一种向量数据表示,它包含语义信息,对于人工智能理解并保持在执行复杂任务时可以利用的长期记忆至关重要。这就是我们今天介绍的主角——向量数据库。

2025-06-30 20:41:55 663

原创 统一架构新思考,北大团队UniWorld-V1统一大模型

本篇分享论文`UniWorld-V1: High-Resolution Semantic Encoders for Unified Visual Understanding and Generation`,北大团队提出 UniWorld-V1 —— 一个整合高分辨率对比语义编码器与多模态大模型的统一生成框架,仅用 2.7M 样本即可同时支持图像理解、生成、编辑与感知等多种任务。

2025-06-30 20:39:49 583

原创 RLVR来做Agent任务能力增强训练

这个其实写得挺清楚的介绍了一个名为 **L-Zero (L0)** 的新系统,旨在将大型语言模型(LLMs)训练成能够自主完成复杂、多步骤任务的通用智能体(General Agents)。

2025-06-30 20:39:02 675

原创 AI 大模型算力芯片产业深度分析 2025

ChatGPT****热潮席卷全球。**ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年12月推出的对话AI模型,一经面世便受到广泛关注,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。在问答模式的基础上ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。

2025-06-30 20:36:34 899

原创 3D VLA新范式!CVPR冠军方案BridgeVLA,真机性能提升32%

近年来,视觉-语言-动作(VLA)模型在机器人操作任务中大放异彩,成为推动通用机器人操作的重要引擎。

2025-06-29 10:45:00 998

原创 LLM高效推理新范式!UCLA提出MTAD类推测解码框架,兼顾生成速度与推理质量 | ICLR 2025

大型语言模型(LLM)凭借其强大的生成能力广泛应用于各类人工智能任务,但在推理阶段往往面临计算资源消耗大、推理速度慢、生成质量不稳定等问题。近年来,推测解码(speculative decoding)逐渐兴起,这是一种提升LLM推理效率的技术,它通过一个小的辅助模型预生成若干Token,接着由更大的模型并行验证,能够实现1–2倍的推理加速。然而,这类方法仍然基于单步概率分布进行生成,无法提升生成内容的整体质量与连贯性。

2025-06-28 20:00:46 989

原创 Cursor官方谈如何有效使用内外部文档,以及我的实践解读

@Docs 是一个直接连接到主流工具和框架的官方文档的接口。它为模型提供了权威性的参考资料,包括API规范、入门指南和最佳实践。这确保了Cursor在生成代码时能够遵循官方推荐的标准和用法。

2025-06-28 19:59:26 923

原创 开源界新王牌,多任务生成全屠榜!智源重磅开源OmniGen2:独创多模态反思机制

在原始的 OmniGen 框架中,本文采用了自回归建模用于文本生成,以及基于扩散的方法用于图像生成,二者都在以 phi-3 初始化的 Transformer 架构中实现。在 OmniGen 发布之后,本文进行了一系列后续实验。首先,本文将 phi-3 替换为更强大的 Qwen 模型。出人意料的是,尽管使用了更强的大语言模型(LLM),本文观察到图像生成质量有所下降。其次,本文探索了一种专家混合(MoE)策略,用于独立路由文本和图像参数,类似于 LMfusion 中的方法。本文的研究发现:将图像分支初始化为来

2025-06-27 20:24:52 720

原创 人工智能中医药进展I

摘要:处方建议对于中国传统医学(TCM)的临床决策支持至关重要,旨在根据患者的症状推荐一组草药。中医临床实践的核心原则是基于症状预测证候,以遵循四个步骤的渐进过程:症状到证候,治疗方法和草药。然而,现有模型过于简化了这一过程,忽略了治疗方法,直接将症状映射到草药或综合征映射到草药,导致信息丢失并降低推荐处方的有效性。此外,证候和治疗方法之间的隐含,稀缺和多对多的关系,再加上治疗方法和草药之间的非线性相互作用,进一步阻碍了整个中医辨证过程的建模。为了应对这些挑战,我们提出了一种新的四部图范式,明确模拟\**中

2025-06-27 20:23:45 602

原创 MCP 万字全解:从原理到实战,这篇最全,建议收藏

还记得 GPT-4 一出手,横扫千军的场景吗?模型越来越强,参数越来越大,大家也越来越疑惑:

2025-06-27 20:21:39 767

原创 GenRank: 小红书大规模生成式排序探索

TLDR:** 生成式推荐作为一种新兴范式,在信息检索领域展现出巨大潜力。然而,生成式排序系统在大规模工业环境中的有效性和可行性仍待深入研究。本文通过在小红书的“发现页”推荐系统中进行实验,提出了GenRank架构,显著提升了用户满意度,同时保持了与现有生产系统相当的计算资源消耗。

2025-06-27 20:20:49 963

原创 多模态任务大一统!蚂蚁推出Ming-Omni:图像、文本、语音三模态无缝融合,一网打尽复杂任务!

Ming-lite-omni 是 Ming-omni 的轻量版本,源自 Ling-lite,具有28亿激活参数。Ming-lite-omni 是一个统一的多模态模型,能够处理图像、文本、音频和视频,并在语音和图像生成方面表现出强大的能力。

2025-06-26 21:11:44 975

原创 论文浅尝 | LightPROF:一种用于基于知识图谱的大语言模型的轻量级推理框架(AAAI2025)

大语言模型(LLMs)在文本理解和零样本推理方面表现出令人瞩目的能力。然而,知识更新的延迟可能导致它们推理错误或产生有害结果。知识图谱(KGs)通过对广泛的实体和关系进行结构化组织和连接,为大语言模型的推理过程提供丰富且可靠的上下文信息。现有的基于知识图谱的大语言模型推理方法仅以文本形式将知识图谱的知识注入提示中,忽略了其结构信息。此外,它们大多依赖于闭源模型或大参数的开源模型,这对高资源消耗提出了挑战。为解决这些问题,作者提出了一种新颖的轻量级且高效的用于知识图谱问答(KGQA)的提示学习推理框架(Lig

2025-06-26 21:10:31 770

原创 大模型私有部署的最优解:构建企业级大模型统一能力底座

企业在推进AI大模型私有化部署时,往往会陷入从算力选型适配到系统配置的多重困境,真正限制落地效率的并非单一技术点,而是多环节间的耦合与不确定性,构建企业级大模型统一能力平台针对这一全链条复杂性,提供平台化解耦方案,可以帮助企业缩短部署周期,降低尝试门槛。

2025-06-26 21:09:03 620

原创 GraphRAG变种:HippoRAG进化到HippoRAG2.0,提升多跳复杂推理性能

HippoRAG2生成的图更为密集,提高了信息连接性和覆盖范围。并且这种变种的GraphRAG在需要多跳推理和上下文综合的任务中表现优异。

2025-06-26 21:07:20 619

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除