- 博客(986)
- 收藏
- 关注

原创 一文搞懂通义千问(Qwen)相关的核心概念
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!
2024-11-06 10:28:24
10453

原创 大模型常用评测基准汇总(通用评测基准、具体评测基准),看这一篇就够了!
在评测集维度,OpenAI和Google会直接使用Chatbot Arena的结果,在对大模型进行评估时,较为简单、高效、易操作的方式是关注Chatbot Arena的leaderboard。目前所有大模型综合排行榜目前中文大模型排行榜SuperCLUE琅琊版6月排名在评估中文大模型的能力时SuperCLUE会作为重要指标,从榜单上可以看出中文大模型的效果还是差于国外大模型,这种落后不能单一归结为某一个原因,我们需要认识到在算力、算法、数据中的各种不足。征途漫漫,惟有奋斗。
2024-09-26 07:30:00
8806

原创 大模型超详细盘点!常用的大模型及其优缺点、有潜力的大模型、国内大模型行业落地的现况、国内大模型优势、挑战与前景
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!
2024-09-21 09:55:42
9337
原创 LLM应用平台超详细指南(二)5大平台功能横向对比:Dify、n8n、Coze、Fastgpt、Ragflow
为了帮助大家更清晰地了解这五个平台的区别和优势,这里整理了一张详细的对比表,从多个维度进行客观分析:其中Coze目前不是免费的了从实际体验来看,如果你是刚接触AI应用开发,希望快速看到成果,是最容易上手的选择。如果你的工作或者业务涉及多个系统和服务之间的数据流转,需要自动化处理,的强大自动化工作流会为你节省超多时间。想搭建企业内部智能知识库或者Q&A系统,优先考虑,它们在RAG方面都比较强,FastGPT更轻量、Ragflow更重(但上限更高)对于有长期规划、需要构建可扩展企业级AI应用的团队,
2025-06-16 20:00:00
339
原创 大模型论文 | Claude多智能体研究系统:AI协作的新突破
Anthropic 在技术博文方面真是太出色了。如果你是 AI 开发者,请停下手头的工作去读一读这篇文章。它详细展示了如何实现一个高效的多智能体研究系统。Anthropic 分享了他们如何构建 Claude 全新的多智能体研究功能,这是一个由主 Claude 智能体生成并协调子智能体的架构,可以并行探索复杂查询。他们采用了编排器-工作器架构。该系统允许 Claude 通过网络、工作空间和自定义工具集成,动态规划、搜索并综合大型语料库中的高质量答案。
2025-06-16 13:57:37
519
原创 LLM应用平台超详细指南(一)Dify、n8n、Coze、Fastgpt、Ragflow
面对日新月异的AI技术,还有飞速发展的各种LLM平台,我们很容易患上选择困难症每个平台各有优势,需要根据自身需求,选择合适的即可。这篇文章会从实用角度出发,通过详细的功能对比、真实的使用体验和具体的应用场景,帮助你在Dify、Coze、n8n、FastGPT和RAGFlow这五款主流平台中找到最适合自己的那一个。无论你是AI开发者、企业用户,还是刚接触AI的新手,这篇对比分析都能为你提供清晰的选择指南。首先我们要明确一下LLM应用平台有:Dify、Coze、Fastgpt、ragflown8n比较特殊一点,
2025-06-16 13:50:36
541
原创 大模型应用开发 | 企业开源知识库RAGFlow使用教程(二)创建知识库
但要注意,这里有个坑,如果你知识库创建后检索时报错,那有可能是embedding过程中造成的,例如我之前选择了下面百度的bge-large-zh这个模型,最后检索时会报一二维向量不匹配的错误,然后换成阿里的text-embedding-v3后重新向量化一遍就好了。总结,到这里,RAGFlow最核心的【知识库】功能就讲解完了,大家可以结合自己的业务场景,选择合适的切片方法和对应进行参数配置(必要时可以考虑构建知识图谱),更好的对文件进行向量化,从而后续进行更精确的检索。尤其,有的切片方法下还支持。
2025-06-16 11:38:11
481
原创 大模型应用开发 | 企业开源知识库RAGFlow使用教程(一)安装启动、功能介绍
下面,来介绍下RAGFlow的核心功能。从下面图中可以看出,有5个,但是最核心的,其实就两个,一个是知识库(最核心),一个是聊天,其他三个都是辅助功能。有人好不同意了,人家也有Agent智能体功能啊,但实话,个人用起来,不是特别好用,简单的场景还可以,复杂的场景,支持有限。
2025-06-16 11:09:29
538
原创 大模型应用开发 | Qwen3+MCP工具集高效集成!一键式训练端到端Agent
Deepseek-R1 的成功已经证明了纯 RL 路线的强大潜力,但现有 RL 框架对于工具配置和奖励设计要求较高的工程能力。RLFactory 的出现,正是为了解决这一痛点,让使用者专注于核心算法创新,而无需为繁琐的工程细节分心。RLFactory 是一个完全开源的、面向的且的 RL 后训练框架,其将环境与 RL 后训练解耦,实现了只需工具配置和奖励函数即可训练,并支持异步工具调用,让 RL 后训练以上。RLFactory 有何独特之处?
2025-06-13 17:32:39
877
原创 深度解读RAG检索增强生成(一)检索增强生成技术的定义及其发展历程
检索增强生成(Retrieval-Augmented Generation,RAG)是一种创新技术,它通过赋予生成式人工智能(Gen AI)模型检索和整合外部信息的能力,来增强其性能。这种方法改变了大型语言模型(LLM)与用户查询的交互方式,使得模型在响应时能够参考特定的文档集合,从而利用这些信息来补充其预先存在的训练数据 1。这使得LLM能够使用特定领域和/或最新的信息,而无需频繁地进行模型再训练 1。RAG的核心在于在生成响应之前加入信息检索步骤,与完全依赖静态训练数据的传统LLM形成对比 1。
2025-06-12 20:08:19
633
原创 一文详解MCP与A2A!解剖MCP工具链/A2A协同的底层生存法则!
在AI技术飞速发展的当下,单个智能体(Agent)早已不再是终点。真正强大的AI系统,不仅要能独立完成任务,更要能像人类一样,与工具互动、与他人协同。让多个智能体高效协作,是AI进入深水区的必由之路。要做到这一点,我们必须理解两项关键技术——MCP(Model Context Protocol)与A2A(Agent-to-Agent Protocol)。它们分别解决“工具调用”和“智能协同”的关键问题,共同构建起AI合作生态的技术双轮。在智能体应用的实际落地中,企业和开发者面临两个核心挑战:这包括读取数据
2025-06-12 11:40:10
877
原创 大模型论文 | 一文汇总11种新型RAG算法!
随着人工智能的快速发展,检索增强生成(Retrieval-Augmented Generation,RAG)技术正在经历前所未有的演变。RAG技术通过将外部知识融入大型语言模型(LLM)的生成过程,极大地提高了AI系统的事实准确性和可靠性。如今,RAG正向更具智能性和自主性的方向发展,能够处理像超图这样的复杂结构,并适应各种专业领域的需求。本文将介绍11种最新的RAG类型,展示这一技术领域的创新前沿。InstructRAG将RAG与多代理框架相结合,使用基于图的结构来组织和执行任务。
2025-06-11 19:39:21
599
原创 一文解析RAG VS GraphRAG的区别
最近的研究报告称,在许多实际任务中,GraphRAG的表现往往不如普通的RAG。因此产生一个问题:GraphRAG真的有效吗?在哪些场景下,GraphRAG有收益?为了解决这个问题,提出GraphRAG-Bench,这是一个评测GraphRAG的基准,目的是评估GraphRAG模型在层次知识检索和深度上下文推理方面的性能。文章指出的评测方式及评测结论可以参考。
2025-06-11 19:06:34
880
原创 《大语言模型》书籍 | 带你快速掌握大语言模型技术核心(非常详细)从入门到实战!
大语言模型》本书主要面向希望系统学习大语言模型技术的读者,将重点突出核心概念与算法,并且配以示例与代码(伪代码)帮助读者理解特定算法的实现逻辑。由于大语言模型技术的快速更迭,本书无法覆盖所有相关内容,旨在梳理最具代表性的 基础知识内容,帮助读者更好地了解大语言模型技术的核心知识点,能够快速上手相关的科研与工程项目。本书共设置了五个主要部分,分别是背景与基础知识部分、预训练部分、微调与对齐部分、大模型使用部分以及评测与应用部分《大语言模型》
2025-06-11 11:51:05
494
原创 大模型论文 | ChartMoE:关于图表建模对齐的构思
作为基础知识储备吧!图表理解的核心在于数据的构建对齐模式,训练方式什么的已经逐步统一了,这篇文章大概可以作为图表数据对齐的基准了,值得学习,算法往后越来越多模态,知识融合也定会纳入八股**数据:**https://huggingface.co/datasets/Coobiw/ChartMoE-Data以 InternLM-XComposer2 模型为训练起点、引入 MoE Connector 结构的多模态大语言模型,具有先进的图表理解、图表重绘、图表编辑、重要部分高亮、转换图表类型等能力。
2025-06-10 14:01:44
791
原创 RAGflow分片策略与文档解析器(二)文档解析器DeepDoc
RagFlow在文档切片过程中提供了丰富的配置项供用户进行选择,大家在使用时也需要根据文档的内容和形式仔细进行选择。通过这些配置,可以看到提供的确实比Dify在知识管理上有一定的优势。后续在针对RAGflow的其他特性在进行介绍。
2025-06-07 20:00:00
897
原创 RAGflow分片策略与文档解析器(一)11种RAGflow分块方法详解!
在使用智能系统处理海量文档时,你是否遇到过这样的困扰:输入问题后,得到的答案要么答非所问,要么信息碎片化,无法精准命中需求?其实,这背后很大程度上是知识切片环节出了问题。而 RAGflow 的分片策略,就像是一把精准的 “手术刀”,能巧妙解决这些难题,让知识检索变得既精准又高效。传统的文本切片方式,往往采用固定长度分割或简单的按段落划分,这种 “一刀切” 的做法,在面对复杂文档时,容易割裂知识的完整性,导致检索结果出现偏差。
2025-06-07 11:19:29
537
原创 一文搞懂LangChain!什么是LangChain?带你快速入门LangChain
先看官方的定义LangChain是一个基于语言模型开发应用程序的框架。现成的链使得入门变得容易。对于更复杂的应用程序和微妙的用例,组件化使得定制现有链或构建新链变得更容易。所以,LangChain是一个强大的框架,旨在帮助开发人员使用语言模型构建端到端的应用程序。。
2025-06-06 20:15:00
804
原创 传统 LLM 与推理模型的使用方式,推理模型(Reasoning Model)与普通 LLM 有何区别?
Reasoning Model,或者叫推理模型,大概是从OpenAI 的 o1-preview 模型[1](2024-09-12)开始广泛受到关注的。OpenAI 在博客中明确指出了这种模型与传统 LLM 的主要区别:随后,市场涌现了一批推理模型,例如热度颇高的 DeepSeek R1、Gemini 2.0 Flash Thinking、Gemini 2.5 Pro 以及 Claude 3.7 Sonnet Thinking 等。那么,它们和传统 LLM 到底有什么具体区别呢?
2025-06-06 10:09:42
725
原创 AI大模型RAG架构详细解析(四)多模态RAG、联邦型RAG、在线型RAG、模块化RAG、工具集成型RAG....
多模态RAG不仅检索文本,还将其知识库扩展到图像、视频、音频或表格数据。当数据分散(例如医院或银行)时,联邦型RAG可以从本地来源检索信息,而无需集中数据。在线型RAG通过持续摄取实时文档或事件来动态更新其知识库。模块化RAG旨在提供灵活性,允许独立替换每个组件(检索器、重排序器、生成器、路由器)。有些问题需要多步推理。多跳RAG通过多轮检索来回答——先回答中间的子问题,再返回最终答案。这种版本将RAG与工具使用能力相结合,允许模型在最终确定回答之前执行操作,例如网络搜索、计算器功能或数据库查询。
2025-06-04 21:00:00
935
原创 AI大模型RAG架构详细解析(三)记忆型RAG、图形RAG、双模RAG、下文感知型RAG、集成型RAG...
REVEAL是一种针对视觉语言任务的RAG方法——想想GPT-4V。它将推理、任务对齐思维和现实世界根基相结合,以减少视觉查询中的幻觉。构建一个能够将产品设计或包装图像与监管和品牌合规性检查表进行审计的人工智能助手。它提取视觉特征(例如,警告标签、布局、标志放置),检索有关相关标准(例如FDA或ISO)的文档,然后标记问题或推荐修复。该项目需要在视觉和文本证据之间进行推理。该代理必须分析图像,并将其发现与检索到的监管指南对齐,这是REVEAL的强项。
2025-06-04 20:45:00
845
原创 AI大模型RAG架构详细解析(二)自我型RAG、自适应型RAG、REFEED、REALM、RAPTOR
自我型RAG并不总是求助于知识库。相反,它首先使用自己的先前输出作为检索基础,然后再寻求外部帮助。构建一个帮助学生或研究人员审查学术论文的助手。该代理检索相关作品,反思证据是否支持或反驳论文的主张,并生成评论或摘要。该代理需要自我评估检索到的来源是否足够相关或矛盾,并据此细化其输出。开发一个评估提议的人工智能伦理政策(例如,面部识别规则)的系统。该代理检索案例研究、研究和新闻示例,然后反思其使用的证据中的差距或偏见,以进行评估。伦理评估需要细微差别。
2025-06-04 20:30:00
677
原创 AI大模型RAG架构详细解析(一)标准RAG、纠正型RAG、推测型RAG、融合型RAG、代理型RAG
在当今的AI时代,你是否想过,如果AI能够每次都从全球知识中精准地提取完美答案,那会是怎样的体验?检索增强生成(Retrieval-Augmented Generation,简称RAG)正是实现这一目标的幕后英雄。从ChatGPT引用来源的能力到企业AI扫描数千份文件,RAG为语言模型提供了现实世界的根基。然而,RAG并非“一刀切”的解决方案。随着时间的推移,AI研究人员设计了多种专门的RAG架构,每种架构都针对不同的现实世界瓶颈进行了优化,比如幻觉、响应延迟、较差的现实根基或有限的上下文。
2025-06-04 18:45:00
1690
原创 大模型论文 | 大模型训练顺序优化新研究:无需重训练的效果评估框架
你有没有想过,想象一下,你在教一个孩子学数学。是先教加法再教乘法效果好,还是反过来?显然,顺序很重要。对于大语言模型(LLM)来说,这个问题同样关键,但复杂程度却是指数级增长的。传统上,想要找到最优的训练数据顺序,研究者们只能一遍遍地重新训练模型,就像。但是,当模型规模达到数十亿甚至万亿参数时,这种"暴力尝试"的方法彻底行不通了——。现在,一个突破性的解决方案出现了。最新研究提出了一种名为,能够在不重新训练模型的情况下,准确预测不同数据顺序对模型性能的影响。这就像是给AI训练装上了"预测水晶球"。
2025-06-03 20:19:23
975
原创 在LLM中交换不同层两个token的embedding,顶层还是底层的影响更大?
有两种解释,目前还没有系统的理论解释哪种好。在底层(如Transformer模型的第k层,k远小于总层数n),每个token的注意力机制(attention)主要依赖于当前层和前一层的上下文信息。如果在第k层交换了第(m-1)个token和前面任一token,由于后续的n-k层还可以通过多头注意力(multi-head attention)和残差连接(residual connection)等机制对这种局部变化进行调整和修正,因此这种交换对最终预测的影响相对较小。
2025-05-29 09:30:00
443
原创 大模型论文 | 字节和复旦团队提出首个推理长度自适应框架,助力LLM/MLLM高效推理,提升精度同时降低输出Token数量!
我们提出基于置信度的自适应推理框架(CAR),该框架可根据模型置信度动态切换短回答与长文本推理模式。通过困惑度(PPL)量化模型对答案的置信度,CAR在高置信度时直接输出短回答以提升效率,低置信度时触发长文本推理以确保准确性。实验表明,在多模态(如DocVQA、ChartQA)和文本推理(如GSM8K、MathQA)任务中,CAR的token使用量较纯长文本推理减少45%以上,平均准确率提升6%-8%,在Qwen2.5、Llama3.1等模型上均优于基线方法,尤其在数学推理任务中显著减少冗余步骤。
2025-05-29 09:30:00
988
原创 大模型论文 | Google DeepMind的DataRater:AI学会自己挑数据,训练效率暴增46.6%
当然,DataRater也不是万能的。
2025-05-28 11:31:33
671
原创 一篇搞懂大模型的四大技术驱动力
近年来,随着人工智能的飞速发展,云服务平台在AI应用开发中的重要性愈发凸显以AI Agent架构为核心的AI应用开发新范式,不仅为企业带来了技术革新,更为其在行业竞争中提供了强有力的推进动力。这一全新框架将深度学习、自然语言处理等前沿技术有机结合,展示出超越传统开发模式的潜力。模型正在推动历史性的技术革命,企业想要成为AI科技浪潮的赢家,需要回答是否要训练自己的行业大模型、如何寻找或打造自己的ChatGPT时刻、如何从既有的企业IT架构和组织能力上支撑落地这三个问题。
2025-05-28 11:07:19
825
原创 大模型应用开发 | 一文搞懂大模型的分词器(Tokenizer)
Tokenizer(分词器)是大语言模型(如BERT和GPT)预处理文本的核心组件,其作用是将原始文本拆解为子词、单词或字符,同时保留语义和结构信息。
2025-05-23 19:47:49
1032
原创 如何在 Java 中基于 LangChain 编写大语言模型应用
在本教程中,我们将会研究 LangChain 的细节,这是一个利用语言模型开发应用程序的框架。首先,我们会介绍有关语言模型的基本概念,这将对本教程有一定的辅助作用。尽管 LangChain 主要提供了 Python 和 JavaScript/TypeScript 语言的版本,但是也有在 Java 中使用 LangChain 的可选方案。我们将会讨论组成 LangChain 框架的构建基块,然后在 Java 中进行实验。
2025-05-19 21:50:51
1017
原创 万字详解 !025AI大模型学习路线(非常详细)从零基础入门到前言应用,看这一篇就够了!
在人工智能技术飞速发展的今天,AI大模型已经成为推动各行业创新的核心力量。无论是在金融、教育、医疗还是智能工业等领域,大模型的应用都展现出巨大的潜力。本文将为你详细梳理一份AI大模型学习路线,帮助你从基础知识到前沿应用,逐步深入这一领域。
2025-05-16 11:50:14
698
原创 大模型论文 | FloE:让MoE模型“瘦身“提速50倍!
MoE模型正在成为AI领域的新趋势,它们通过稀疏激活专家的方式,在保持高性能的同时大幅减少计算成本。但这些模型的内存需求也带来了新的挑战,特别是对于资源有限的设备。FloE的突破意味着:(1)
2025-05-15 19:50:38
831
原创 大模型入门到精通(非常详细)全解析模型架构MoE!
MoE通过“分而治之”的思想,为大模型突破参数规模与计算效率的瓶颈提供了新方向。随着国产模型DeepSeekMoE、Qwen-2.5 Max、国际标杆GPT-4的实践验证,MoE已成为下一代大模型的核心架构。
2025-05-13 20:02:52
822
原创 大模型RAG从入门到精通(五)RAG中的长上下文管理策略
上下文摘要是 RAG 系统中一种更复杂的上下文长度管理方法,我们在构建最终上下文的过程中应用文本摘要技术。一种可行的方法是使用一个额外的语言模型(通常规模较小,且经过摘要任务训练),用于对检索到的大量文档进行摘要。摘要任务可以是提取式的,也可以是抽象式的。提取式识别并提取相关的文本段落,抽象式从头生成摘要,对原始文本块进行重新表述和精简。此外,一些 RAG 解决方案使用启发式方法来评估文本片段(例如文本块)的相关性,并丢弃相关性较低的文本块。
2025-05-11 08:30:00
847
原创 大模型RAG从入门到精通(四)检索增强生成评估框架
(LLM)的局限性和克服其诸多限制方面发挥了关键作用。通过整合检索器,RAG 增强了响应的相关性和事实准确性:它只需实时利用外部知识源(例如矢量文档库),并在原始用户查询或提示中添加相关的上下文信息,然后将其传递给 LLM 进行输出生成。对于那些深入 RAG 领域的人来说,一个自然而然的问题出现了:我们如何评估这些远非简单的系统?为此,存在几个框架,例如,它提供了超过 14 种评估指标来评估幻觉和忠实度等标准;,以其模块化和简单性而闻名,可以在自定义管道中进行评估;
2025-05-10 09:00:00
583
原创 大模型RAG从入门到精通(二)RAG工作流程
尽管如今随着人工智能的迅猛发展,各种增强版和更复杂的 RAG 版本几乎每天都在涌现,但要理解最新的 RAG 方法,第一步是理解经典的 RAG 工作流程。Retrieval-Augmented Generation (RAG) 系统是一种创新的架构,它结合了传统的语言模型(LM)和信息检索(IR)技术的优点,以提供更加精准和上下文相关的文本生成能力。
2025-05-09 14:58:50
900
原创 大模型RAG从入门到精通(一)LLM 的能力和局限性,RAG(检索增强生成)
(AI)的一个领域,旨在教会计算机理解人类的书面和口头语言,并运用这些语言与人类互动。虽然传统的 NLP 方法已研究数十年,但近年来出现的(LLM) 几乎主导了该领域的所有发展。LLM 通过将复杂的深度学习架构与能够分析语言中复杂模式和相互依赖关系的自注意力机制相结合,彻底改变了 NLP 和整个人工智能领域。LLM 能够处理广泛的语言生成和语言理解任务,并具有广泛的应用范围,例如对话聊天机器人、深度文档分析、翻译等等。
2025-05-09 14:29:31
1029
原创 大模型论文解析(三)自主代理的行为控制与安全评估
大型语言模型的兴起催生了各种自主AI代理(autonomous agents),它们能在较少人类干预下连贯地执行复杂任务(如自动编写代码、联网操作等)。然而,随着代理自主性的提高,其潜在风险也显著增加。2025年初,有学者从伦理和治理角度对自主代理提出了警示,也有研究探索衡量自治程度和自动红队测试的方法。
2025-05-07 07:00:00
791
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人