自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1389)
  • 收藏
  • 关注

原创 Java程序员,怎么靠大模型翻身

作为天天跟代码打交道的Java程序员,你可能已经被大模型的各种新闻刷屏了:DeepSeek能写诗,Midjourney会作画,程序员要被AI取代了?

2025-07-28 10:45:00 1113

原创 老板要求All in大模型,员工却很无奈且迷茫,如何破局?

从上周五晚到昨晚,见了一些新老朋友,交谈中,大家都在谈大模型。

2025-07-27 10:45:00 822

原创 都在劝退?大模型前景如何?

近期,关于大模型的就业前景引起了不少讨论,一方面,它代表了技术的最前沿,吸引了无数科技工作者的目光;另一方面,在现实就业中存在着一定的挑战。无论是在保研过程中,还是进入职场后,选择大模型相关的研究或岗位,都需要深刻认识行业的现状与未来发展。

2025-07-26 10:52:30 991

原创 本科应届生,1个月斩获50W大模型算法岗!

从考研失利、没有实习经验,到一个月内拿下年薪50W的大模型岗——看似轻描淡写,其实是把所有难关都撞过一遍。

2025-07-25 22:26:39 984

原创 FastGPT工作流实战:我用“标签法“让多知识库问答准确率提升80%

在企业实际应用场景中,一个问答助手是要懂得很多事情的,比如财务的、法务的、人资的,甚至集成了业务方面的知识。

2025-07-24 20:12:59 769

原创 轻松构建 AI 智能助手,我用 MCP 搞定了!附实战代码

最近我们聊了不少关于 MCP 服务器的应用,今天我想带大家从零开始打造一个属于自己的智能聊天机器人,我给它取名叫 **Ava**,用的是几个常见的框架。

2025-07-24 20:11:25 924

原创 爆改RAG!用“自动提问”让你的AI检索像开挂一样精准

你还在用传统RAG?那你就OUT了!今天,咱们聊聊如何用“自动生成问题”给RAG加点猛料,让你的AI检索和问答能力直接起飞!

2025-07-24 20:08:35 922

原创 如果你的RAG系统不好用,请收藏一下这份RAG系统优化指南

今天我总结了几个关于RAG系统的优化的策略方法,大家可以参考一下。当然,在这提醒一下大家,这些方法不见得一定适合你的RAG系统,你最好是根据你实际的场景针对性地去做调整,并且这个优化工作也并不能一蹴而就,而是需要持续优化。

2025-07-23 17:03:32 724

原创 一文读懂AI Search:从RAG到DeepSearch

模型的内在知识是经过训练从大量数据中学习得到的。但是训练数据总是有限的,它的有限性主要体现在两个方面:

2025-07-23 17:00:55 747

原创 Think-on-Graph:一种知识图谱与大模型的紧耦合新范式

LLM 的局限性**:大型语言模型虽在多种任务中表现出色,但存在幻觉问题,尤其在需要深度推理的场景中:

2025-07-23 16:55:56 800

原创 企业AI知识库的文件解析痛点-Word格式解析优化(准确率95%)-100%开源

在大模型和RAG(检索增强生成)技术飞速发展的今天,**企业AI知识库**建设已成为AI落地的核心战场。而文件解析是所有参与做企业AI知识库开发者所避免不了的难题。

2025-07-22 20:03:53 950

原创 Search-R1:让 LLM 学会 “边搜边想”,强化学习赋能检索增强推理

在大语言模型的能力边界不断拓展的今天,一个关键挑战始终存在:如何让模型既能精准推理,又能高效利用外部知识?传统的检索增强生成(RAG)或工具调用方法往往局限于固定流程或依赖大量标注数据,难以让模型自主掌握 “**何时搜?搜什么?如何用?**” 的技巧。于是在今年游研究人员提出了Search-R1(Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning),提出了**一种全新的强化学习(RL)框架,让 LLM

2025-07-22 19:58:01 810

原创 13.1K Star,超越RAG,这个AI记忆框架直接把RAG按地上摩擦了!!!

刚刚在GitHub上刷到这个叫Graphiti的东西**,卧槽,简直是AI智能体的记忆神器啊!

2025-07-22 19:57:05 695

原创 从知识增长的角度提升RAG上下文的质量

检索增强生成(RAG)通过引入外部知识来缓解大型语言模型(LLM)在**开放领域问答**任务(OpenQA)中产生的**事实错误和幻觉输出**的问题。然而,对于复杂的问答任务,**现有的 RAG 方法使用 LLM 主动预测检索时机,并直接使用检索到的信息进行生成,而不考虑检索时机是否准确反映了实际的信息需求,或者是否充分考虑了先前检索到的知识,这可能导致信息收集和交互不足,从而产生低质量的答案**。为了解决这些问题,我们提出了一种通用的 RAG 方法,称为**自适应笔记增强 RAG(Adaptive-Not

2025-07-21 20:00:07 927

原创 【招银研究|行业深度】数字金融之AI+银行——大模型与银行数字化转型的三组关系

近年来大模型等AI技术的发展为银行业创造全新的技术赋能路径,有望通过数字化转型提升资产组织效率并降低运营成本。本报告在梳理国内外案例的基础上,层层递进分析大模型与银行数字化转型的三组关系,尝试提出兼具前瞻性和实操性的经营策略,助力银行业应对数字化过程中的不确定性,实现可持续增长。

2025-07-21 19:58:44 983

原创 从DeepSeek-V3到Kimi K2:八种现代 LLM 架构大比较

自最初的 GPT 架构开发以来,已经过去了七年。乍一看,回顾 GPT-2(2019 年),展望 DeepSeek-V3 和 Llama 4(2024-2025 年),人们可能会惊讶于这些模型在结构上仍然如此相似。

2025-07-21 19:56:05 762

原创 ColQwen-Omni:RAG全模态检索来了,支持【文本|图像|视频|音频】四种模态!

还记得 ColPali、ColQwen 和 DSE 吗?这些模型开创了**视觉文档检索**的新范式:无需费力地从文档中提取文本进行处理,只需将文档页面视为一系列图像(屏幕截图),然后训练视觉语言模型(VLM)直接将其内容表示为向量。ColPali 的实践表明,这种策略通常比其他替代方法更快、更简单,并且能带来更好的检索性能。

2025-07-20 10:45:00 988

原创 AI Agent 基础设施

AI Agent是利用人工智能技术以实现特定目标并为用户完成任务的软件系统。它们展现出推理、规划、记忆以及一定程度的自主性,能够进行决策、学习和适应环境 。这些Agent能够同时处理包括文本、语音、视频、音频和代码在内的多模态信息,并具备对话、推理、学习和决策的能力 。

2025-07-19 10:45:00 698

原创 2025年“情感分析+LLM”最新创新点全面汇总!

把这两者结合,能够充分利用LLM的语义理解能力、预训练知识和端到端建模能力,解决传统情感分析的局限性,提升模型的性能和鲁棒性。在实际应用中具有广泛的价值,尤其在处理复杂情感、多语言场景和动态语言时表现尤为突出。

2025-07-18 22:04:30 1019

原创 ICML25|不用手动调试,自动化agent问责制横空出世

一句话概括:你还在手动翻日志给AI查bug?这篇论文已经开始训练AI当“产品经理”,让它自己复盘会议纪要,找出是谁在哪一步把需求带跑偏了。

2025-07-17 20:26:53 708

原创 LangChain 的「记忆压缩术」:聊聊大模型的上下文工程设计之道

智能体执行任务离不开 上下文。上下文工程(Context Engineering)既是一门艺术,也是一门科学,其核心在于,在智能体运行轨迹的每个步骤中,精准地将恰好适量的信息注入其上下文窗口。本文将通过回顾多个热门智能体实例及相关研究论文,解构上下文工程的四大核心策略——“保存、筛选、压缩、隔离”,并深入探讨 LangGraph 如何为这些策略提供强大支持!

2025-07-17 20:25:30 296

原创 高质量奖励函数,让你告别RL探索难题!基于LLM的自动奖励生成方法R*

随着我在强化学习各个领域逐渐深入的工程实践后,我发现**奖励函数才是你真正要关注的事情**,很多时候大家都是直接用环境,根本不关心环境中奖励函数是怎么构建的,也很少有人去优化奖励函数。

2025-07-17 20:00:22 648

原创 AI智能体全面爆发:一文吃透多Agent技术发展与进化

在本文中,我们将深入探讨AI Agent的理论支撑以及其背后的第一性原理,回顾和分析第一性原理的发展轨迹,现阶段AI Agent所具备的能力,并探讨其在各个领域中的应用。接着,我们会展望AI Agent未来的发展方向,特别是在多Agent协作中的潜力和挑战。最后,我们将探讨Agent的未来技术发展及其广泛应用前景,为读者提供一个全面且深入的视角来理解和预测AI Agent的未来。

2025-07-16 20:32:13 807

原创 文档太长模型“吃不下”?15种Chunking神技,助你打造聪明绝顶的RAG系统!

你以为RAG系统的“聪明才智”全靠大模型?错!真正的高手,都是切块(Chunking)切得好!

2025-07-16 20:30:51 882

原创 Dify实现RAGFlow MCP知识库的问答

Dify更多地侧重于对话式 AI 或类似的知识库应用,在某些问题的处理上做了简化,导致在复杂的问答场景中表现不如 RAGFlow。RAGFlow是基于 RAG(Retrieval-Augmented Generation,检索增强生成)架构,通过结合检索机制和生成模型,能在问答中更好地理解上下文并生成更加准确的答案。

2025-07-16 20:29:24 560 1

原创 RAG彻底爆了!一文读懂其架构演进及核心要点

检索增强生成(英语:Retrieval-augmented generation, RAG ) 是赋予生成式人工智能模型信息检索能力的技术。检索增强生成优化大型语言模型(LLM) 的交互方式,让模型根据指定的一组文件回应用户的查询,并使用这些信息增强模型从自身庞大的静态训练数据中提取的信息。检索增强生成技术促使大型语言模型能够使用特定领域或更新后的信息。应用案例,包括让聊天机器人访问公司内部资料,或来自权威来源的事实信息。

2025-07-15 20:00:34 710

原创 RAGFlow引用机制揭秘:LLM引导与后端验证如何协同工作?

ragflow 显示引用为什么不通过提示词直接显示在回答中,而是通过分块后和检索片段比较向量相似度?判断引用出处?能不能直接通过提示词实现。

2025-07-15 19:58:00 1031

原创 代码量降低 80%,告别百万工时浪费:NebulaGraph 在京东物流的应用

面对日均数万人参与、月均百万级 Excel 处理、百万工时消耗的“做数”困境,以及复杂的数据权限与血缘关系挑战, **NebulaGraph 图数据库落地其智能化大数据分析平台 UData 后,实现了查询延迟降低 30%,整体查询性能提升 5 倍,权限校验响应时间 <100ms 等显著成效

2025-07-15 19:55:45 643

原创 ICML 25|MAYPL:超关系知识图谱的结构表示学习

在超关系知识图谱上进行推理和推断新知识需要理解和利用实体与关系之间的复杂相互关系。然而,大多数现有的超关系知识图谱研究没有充分利用其图结构。例如,基于Transformer的方法单独处理每个超关系事实(为简洁起见称为“事实”),未能捕捉不同事实之间的相互联系。其他一些最近的方法使用简单的一跳邻域信息来学习超关系知识图谱上的表示。虽然有研究提出了一个用于编码事实的图神经网络(GNN)层,但事实证明该GNN编码是冗余的,对整体性能没有关键影响。最近,另一种基于GNN的编码被引入,但它没有考虑每个事实中的关系和实

2025-07-14 20:09:37 288

原创 Data Agent:下一代数据智能体系统如何重构 Data+AI 生态?

过去十年,数据库与人工智能的结合走出了两条路径:

2025-07-14 20:08:37 355

原创 LightRAG:颠覆传统AI问答,一张“知识网”让大模型真正开窍!

还在为AI回答支离破碎而头疼?**LightRAG用一张“知识网”让大模型真正理解复杂关系

2025-07-14 20:07:45 297

原创 【Agent专题】MCP架构实战:开发者必藏!最全MCP智能代理构建指南,附实操解析

MCP代理正在颠覆智能体的边界,它不再只是“对话专家”,而是真正能与真实应用沟通并完成任务的AI大脑。

2025-07-13 10:45:00 1044

原创 世界模型的变革之道:PAN 架构的突破

在追求智能体精准决策能力的道路上,世界模型的研究备受瞩目。然而,当下众多世界模型或局限于特定领域,或缺乏泛化与交互性。《Critiques of World Models》一文以其犀利的批判,直指现有模型的痛点,并且创新性地提出了 PAN 架构,为世界模型的发展提出了新思考。

2025-07-12 19:54:32 847

原创 ICML 2025 | Transformer 性能大提升:CCA-Attention 替代自注意力模块,LLM长文本建模突破

随着大语言模型(LLM)在自然语言处理中的广泛应用,长上下文建模已成为其关键能力之一。然而,随着上下文长度的增加,冗余信息积累带来的计算开销成了一个亟待解决的问题。南方科技大学与鹏城实验室的研究团队提出了 Core Context Aware Attention (CCA-Attention),该方法通过创新的全局感知池化与局部保留模块,显著减少冗余信息并提高长上下文建模的效率。实验结果表明,CCA-Attention 在处理长上下文时的计算效率和性能均优于现有方法。

2025-07-12 19:52:51 356

原创 超越RAG的搜索革命!分层框架让AI像专家团队一样深度思考

一句话概括:与其训练一个越来越大的“六边形战士”AI,不如组建一个各有所长的“复仇者联盟”,这篇论文就是那本“联盟组建手册”。(原论文题目见文末,点击阅读原文可直接跳转至原文链接,Published on arxiv on 03 Jul 2025, by Renmin University of China)

2025-07-11 22:20:20 363

原创 综述 | 从“说出来”到“脑中算”:Latent Reasoning的范式跃迁与无限可能

大型语言模型(LLM)在推理任务上表现惊艳,尤其当它们使用显式思维链(Chain-of-Thought, CoT)时——即像人一样一步步写下中间思考过程。这种“说出来再回答”的方式显著提升了模型的性能和可理解性,成为当前顶尖推理模型(如Qwen3、DeepSeek-R1、Gemini 2.5)的核心策略。然而,CoT存在一个根本性限制:它强迫模型将所有思考都“塞进”有限的自然语言词汇和离散的令牌(Token)中,就像只用文字聊天来解复杂数学题,表达带宽严重受限(见图1,显式CoT传输约15比特/令牌,而潜在

2025-07-11 22:18:34 708

原创 RWA+AI数字化升级全套技术落地方案

数字经济时代,**产业 +AI+RWA 数字化升级全套技术落地方案**,以**DID 钱包**、**WE07 机器人**、**Hiclub 社交、RWA生态、HIcoin一清支付、HiEX交易系统、LAWS法务、Hiworld慧宇宙**为核心,为产业转型提供系统支撑,技术驱动变革。

2025-07-10 20:07:11 1037

原创 吴恩达推出LLM 后训练免费课程,覆盖三大调优方法:SFT、DPO、RL

刚刚,吴恩达(@AndrewYNg)发布了一门新课程「**Post-training of LLMs**」。

2025-07-10 20:06:08 953

原创 LangChain介绍与环境配置

LangChain是一个专为构建语言模型驱动的应用程序而设计的开源框架。由Harrison Chase等人于2023年创建,它可以帮助开发者更好地利用大型语言模型(LLMs)的潜力,将语言模型与其他工具(如数据存储、API等)结合起来,从而创建出更强大的以语言为核心的智能应用。

2025-07-10 20:05:12 913

原创 关于在RAG检索增强中文档处理的解决方案——针对中小企业

在大模型应用领域中——RAG技术应该属于一项基础技术,不论做什么业务基本都离不开RAG的存在;但RAG技术属于典型的入门五分钟,想做好却需要花费大量时间和精力,以及成本。

2025-07-09 20:34:51 979

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除