- 博客(1177)
- 收藏
- 关注
原创 AI大模型RAG与知识库技术详解:从零基础入门到Embedding精通,这一篇就够了!
文章介绍了AI技术中解决特定领域知识需求的三大核心技术:RAG、知识库和Embedding。当前AI大模型在特定场景知识上存在不足,通过知识库作为"外挂"可以弥补这一缺陷。Embedding技术将各类信息转换为向量格式,提高检索效率。RAG技术通过检索相关资料、增强信息、生成答案的过程,使AI能够更好地回答特定领域问题。这些技术本质上是让大模型成为信息编辑整合工具,而非依赖其自身知识储备。今年以来,AI 技术已经融入了我们的工作和生活中。
2025-12-24 10:32:28
350
原创 这是一份系统全面的大模型知识手册!(附学习资料)
文章推荐了一份系统全面的大模型知识手册,分为四个部分:大模型应用基础(CNN、Transformer、GPT等基础知识)、大模型优化技术(微调方法)、分布式训练(Accelerate、DeepSpeed等)和高效微调(Lora、P-tuning等)。手册从基础到进阶全面覆盖大模型知识,适合不同水平读者学习,关注公众号发送"知识手册"可获取。
2025-12-24 10:27:37
464
原创 AI智能体记忆系统完全指南(超详细)从零基础到精通,一篇全掌握,值得收藏!
本文系统性地综述了AI智能体记忆系统的最新研究进展,提出了"形式-功能-动态"三维分类框架。研究指出记忆是基础模型驱动的智能体的核心能力,支撑长期推理、持续适应和复杂环境交互。文章深入探讨了记忆的三种主要形式、三类功能角色及其演化机制,为未来智能体研究提供了系统性的理论基础。智能体与环境:设I = {1, …, N}表示智能体的索引集,其中N=1对应单智能体情况,N>1代表多智能体设置。
2025-12-20 10:52:43
585
原创 面向业务落地的AI产品评测体系设计与平台实现
本文介绍了淘宝闪购技术部AI大模型应用评测体系的构建过程。针对AI产品面临的不确定性和复杂性挑战,文章提出了从"验收式测试"到"共创式评测"的转变,建立了"端到端评测"与"分层评测"相结合的评测策略,以及基于变更分级的评测体系。通过构建标准化流程+插件化扩展的评测平台,实现了AI产品质量保障与持续迭代的闭环,有效支持了90+AI产品的研发与上线。一、背景和挑战在人工智能技术迅猛发展的推动下,各行各业正经历前所未有的数字化转型浪潮。从智能制造的智能调度系统,到医疗领域的辅助诊断工具;
2025-12-20 10:39:35
825
原创 n8n、扣子太难用了,Vibe Workflow才是更大众的解
Refly.AI 是开源的。开源仓库地址:https://github.com/refly-ai/refly如果你之前用 n8n、Claude Skills 或者其他 Workflow 平台,他们还做了产品化的迁移功能,可以一键把那边的东西导过来运行。Vibe Workflow 的核心逻辑是:用 Agent 节点替代传统 Workflow 节点,降低搭建门槛,收集行为数据做飞轮。赌的是模型能力持续提升,产品站在肩膀上跟着涨。
2025-12-19 11:57:20
720
原创 AI提示词工程完全指南(超详细)从入门到精通,一篇搞定!建议收藏!
提示词工程的优化与迭代提示词工程强调通过不断优化提示词,提高大模型的输出质量。
2025-12-19 11:48:04
1498
原创 大模型应用开发实战:从踩坑到精通,收藏这篇就够了!
本文分享了一个智能问答系统的开发优化过程。针对三个不同子场景的智能问答需求,作者最初采用纯RAG技术建立三个知识库,但效果不佳,出现场景判断不清和召回率低的问题。后通过重新思考,改为按数据类型建立两个知识库(结构化与非结构化),并实现条件查询和相似度查询两个工具,让模型根据需求自主选择。此方案简化了技术实现,大幅提升了系统效果,解决了场景区分和混合数据查询问题。大模型应用开发流程正确,但结果不一定正确。由于大模型技术的复杂性,再加上不同业务场景的特殊需求,导致大模型应用的开发难度很大;
2025-12-18 17:52:34
963
原创 一张图看懂本体与知识图谱的关系(超详细)从零基础到实战精通,收藏这一篇就够了!
知识建模分为数据层和模式层。数据层以图数据库存储事实,通过知识提取生成实体关系,经知识融合去除冗余;模式层借助本体规范概念关系,通过知识推理发现新关联,本体建模明确定义概念联系。数据层实现知识图谱,模式层实现本体建模,共同构建完整知识体系。知识建模在逻辑架构上分为两个层次:数据层和模式层。数据层是以事实为存储单位的图数据库,其事实的基础表达方式是「实体-关系-实体」或者「实体-属性-属性值」。数据层进行知识提取和知识融合。知识提取是基于已有数据生成「实体-关系-实体」;
2025-12-18 14:34:24
895
原创 提示词工程完全指南(超详细)从零基础到精通,一篇就够,建议收藏!
文章介绍了提示词工程作为与大模型交互的核心技术,通过优化输入提示词来释放大模型潜力。提示词具有任务描述、提供上下文和引导输出三大功能,其有效性依赖指示、上下文、例子、输入和输出五大核心要素。文章详细讲解了ICIO框架、链式思维等结构化方法,强调通过明确性、简洁性和结构化来优化提示词,使大模型从工具转变为智能助手,提供高效准确的解决方案。“ 提示词工程是用户与大模型交流的桥梁,提示词的好坏直接影响到模型的效果。”在大模型应用开发中,所有的操作最终的结果都是拼接成提示词输入给大模型,因此可以说提示词是大模型应用
2025-12-17 14:59:54
901
原创 用小模型办大事!阿里团队用Qwen3-0.6B打造简历求职神器!
阿里团队推出SmartResume智能简历解析系统,使用微调的Qwen3-0.6B小模型和YOLOv10版面检测模型,可在十秒内高效解析简历PDF文件。系统能提取基本信息、工作经历、教育背景等结构化信息,通过版面检测重建阅读顺序,将内容稳定转换为结构化字段,为后续程序提供高质量数据集。项目已开源并提供在线体验,展示了AI模型在企效招聘领域的实际应用。目前的AI科技圈一直在致力于将AI模型能力落地应用,一方面要考虑大参模型部署成本,另一方面又要考虑大模型在应用中的运行效率。
2025-12-11 11:28:48
911
原创 大模型应用理论那么简单,为什么实现起来那么复杂?
本文探讨大模型应用开发中理论与实践的差距,以RAG技术为例说明理解理论不等于掌握应用。RAG作为方法论而非具体技术,其难点在于效果优化而非流程实现。大模型应用开发需丰富经验和细节优化,不同模型和环境需针对性测试调整,效果优化比实现更难。很多人都有这样的感受——大模型应用的理论我都懂,但为什么就是做不好?其实理论的简单性和技术的复杂性,往往都隐藏在那些细节里。“纸上得来终觉浅, 绝知此事要躬行。今天闲的没事回头梳理了一下这大半年来开发过程中所遇到的问题,然后画了一个架构图;
2025-12-05 11:51:43
694
原创 一文搞懂MCP与RAG的区别!从零基础到实战应用,建议收藏!
RAG 让模型“知道得更准”MCP 让模型“干得成事”。在企业落地中,优先明确目标是“回答对”还是“把活儿办了”,再决定单用或组合。如果你正把 LLM 接入企业系统:先用 MCP 打通关键工具/数据,再把检索做成可调用的 RAG 工具——既“会说”,也“会做”。
2025-12-04 15:25:09
771
原创 谷歌最新《Introduction to Agents》白皮书
文章基于谷歌《Introduction to Agents》白皮书,系统介绍了AI智能体的架构设计、能力分级、生产部署、安全治理及自我进化机制。详细解析了智能体的四大核心组件(模型、工具、协调层、部署),五级能力进化路径,以及多智能体协作模式。同时提供了从开发到运维的全流程指导,包括Agent Ops、安全防护、互操作性等关键技术,帮助开发者构建可落地的生产级智能体系统。过去数年,AI的核心价值集中在被动式任务:回答问题、翻译文本、生成图片,每一步都需要人类指令驱动。
2025-12-04 11:46:36
800
原创 AI Agent记忆系统搭建教程(超详细)从零基础到精通,收藏这一篇就够了!
记忆,是智能的基石,也是认同的来源。如果要让 AI 从“工具”进化为“伙伴”,它首先得像个老朋友一样,记得你的习惯,懂得你的言外之意。别让你的 Agent 永远停留在“初次见面”。给它装上记忆,从今天开始,在数字荒原里与它共同进化。今天的分享就到这里,如果您觉得还不错,请关注我吧~
2025-12-02 15:33:22
1083
原创 4种易用的本地化部署LLM的方法,从零基础到精通,看完记得收藏!
文章介绍了四种在本地运行大模型的方法:Ollama适合个人本地试验和脚本整合;LMStudio提供类似ChatGPT的界面且支持AMD/Intel集显;vLLM是开源推理引擎可提供OpenAI兼容接口;LlamaCPP是轻量级引擎可在个人电脑CPU或GPU上运行LLM。每种方法都有其适用场景和优势,用户可根据自身需求选择合适的工具。
2025-12-02 13:55:43
630
原创 AI大模型瘦身指南:量化vs蒸馏,两种核心技术详解,收藏备用!
要理解量化,我们首先需要知道:大模型本质上是由海量参数组成的。比如GPT-3,就包含了1750亿个参数。每个参数都是一个数值,而这些数值的存储方式,直接决定了模型占用的空间大小。让我们举个简单的例子。假设某个参数的值是1.2768,为了在计算机中存储这个精确的数值,我们需要开辟一定的内存空间。但如果我们做个"四舍五入",把它简化成1或者1.28,所需的存储空间就会大大减少。这就是量化的核心思想——通过降低数值精度来节省存储空间。随着大模型应用的不断普及,模型压缩技术变得越来越重要。
2025-11-29 12:05:01
1029
原创 AI大模型微调实战教程(超详细)从零到精通LoRA技术,一篇就够了,速速收藏!
发现模型在某方面能力不足通过训练更新模型参数得到能力提升的新模型微调本质:学习参数的改动量Δ全量微调:学习所有参数,资源消耗大LoRA灵感:参数改动存在冗余性微调悖论:我们希望改动有限,避免遗忘矩阵分解:用两个小矩阵近似大矩阵Rank参数:控制信息量和参数量的平衡资源节省:可降低90%以上的成本。
2025-11-29 11:25:14
1454
原创 大模型的“积木”:一文读懂Token是什么
看到这里,你应该彻底明白Token是什么了吧?再用一句话概括:Token是大模型把人类语言拆成的、能理解和处理的最小“语言积木”,它负责把文字翻译成模型能懂的数字信号,再把模型的数字信号翻译回文字,是我们和大模型沟通的核心桥梁。下次再看到“Token限制”“Token计费”,就不会觉得陌生了——你只需要知道:输入的文字越多,Token数量就越多,模型的“工作量”也越大。如果想节省费用或避免回复被截断,就尽量把问题说简洁,可去掉不必要的修饰。
2025-11-28 13:56:41
1141
原创 从LangChain和LangGraph看透Agent智能体的真相,从小白到专家
最后,总结一下。大家不要被 Agent 这个词吓倒。无论外面的产品包装得多么花哨,剥开外壳,它们都是由 LangGraph 这种状态机编织出来的网络。LangChain 让我们学会了把大模型当工人用;而 LangGraph 让我们学会了把大模型当经理用,甚至当 CEO 用。当你理解了这三种图的模式,并且知道怎么组合它们时,你就已经比 99% 的人更懂 Agent 了。至于 LangChain 和 LangGraph 的具体代码怎么写,那些add_nodeadd_edge。
2025-11-28 11:58:22
354
原创 跟我学LangChain:入门指南,基于LLM构建强大AI应用
本文详细介绍LangChain框架,一个简化LLM应用开发的工具。解析其核心概念(组件与链)、三大应用场景及六大模块,包括模型I/O、数据连接、链、记忆、Agent和回调处理器。通过代码示例展示从环境配置到创建聊天机器人、Agent及加入记忆功能的完整开发流程,帮助开发者快速构建响应式AI应用。当开发者构建LLM应用时,可能会遇到很多API接口、数据格式、工具等,特别是一个非AI领域的开发者,要研究入门总觉得有很大的负担。LangChain 就是为了让你跨越这道门槛,让LLM应该的开发更加简单。01。
2025-11-27 13:50:01
840
原创 3 张动图秒懂 A2A 协议:打造高效 Multi-Agent 协同机制
随着 AI Agent(智能体)技术的爆发,未来我们也必将从“人与 AI 对话”的时代迈向“AI 与 AI 协作”的时代。然而,目前的 Agent 大多像是“独行侠”——它们各自拥有相关的专业能力,却很难跨越框架、跨越服务器进行协作。而Google 发布的为了解决这类问题。其作用未来或许可以和Anthropic 推出的— 1 什么是 A2A (Agent2Agent) 协议?准化 AI Agent 之间通信的开放标准是一套旨在标准化 AI Agent 之间通信的开放标准。
2025-11-27 11:49:04
530
原创 多智能体系统:AI时代的软件模块化
多智能体系统(MAS)是用大语言模型(LLM)实现的模块化系统。在MAS中,每个模块称为一个"智能体"(Agent),多个智能体协作完成复杂任务,每个智能体具备真正的模块特征:明确的边界、各自独立的生命周期、清晰的输入输出接口、彼此隔离的运行时上下文。与传统软件模块相比,智能体的特殊之处在于它使用自然语言定义(而非编程语言),可以理解复杂的意图和上下文,可以自主决策执行策略(而非机械执行指令),可以使用工具完成任务(如搜索、读写文件)。
2025-11-25 16:02:15
950
原创 RAG检索增强生成完全指南:从入门到精通,大模型应用这一篇就够了!
我们花了很长的篇幅来深入GraphRAG,是因为我觉得里面应用了很多相关技术实现,从最基础的向量化检索,到采用了图做结合,甚至里面也融合了多跳RAG或者说多跳推理的技术,还利用了HyDE(Hypothetical Response)的思想。因此非常值得深入了解和学习。总体而言Graph RAG通过将非结构化文本转化为图结构表示,突破了传统 RAG 仅依赖向量检索的局限性。它采用分阶段处理流程,从文本中提取实体与关系,构建社区结构与摘要信息,并融合图结构与向量嵌入,实现多种检索模式的协同支持。
2025-11-25 15:51:57
485
原创 AI大模型从入门到精通:电力数据播报员实战应用全解析,一篇搞定大模型在电力行业的落地!
未来,电力数据播报员期望成为数据工作的唯一入口,通过聊天问答的自然且自动的方式,快速实现结构化数据的指标查询、统计分析、预测诊断和决策建议,解决便捷、及时、多维度的数据查询、数据分析等简单与复杂的全链路数据工作。最后,电力数据播报员作为一款基于大语言模型的创新工具,正以其独特的优势改变着电力行业的数据使用方式,也为其他行业的数据智能化应用提供了宝贵的经验。随着技术的不断进步和应用的深入,我们有理由相信,电力数据播报员将在未来发挥更大的作用,为电力行业的数字化转型贡献力量。
2025-11-22 15:03:44
586
原创 Qwen3-VL视觉语言模型实战教程:从零基础到精通,一文掌握文档理解与信息提取!
视觉语言模型是能够同时处理图像和文本输入,并生成文本响应的多模态 AI 模型。这类模型直接理解图像内容,无需依赖中间处理步骤。Qwen3-VL 是阿里巴巴推出的视觉语言模型系列。该系列包含多个版本:235B-A22B、30B-A3B,以及密集的 4B 和 8B 版本。本文使用 4B 版本进行测试。本文通过 Qwen3-VL 实例,演示了视觉语言模型在 OCR 和信息提取任务上的应用。与传统 OCR 方案相比,视觉语言模型提供了更直接的解决方案。
2025-11-22 11:42:56
657
原创 MCP不香了,Claude Code又推出了Skill功能
最近 Claude 推出的 Skills 功能,说白了,就是给 AI 加了个「技能包」系统,能让它更聪明地完成特定任务。这个设计不但提升了 Claude 的实用性,也让它更接近「可编程 AI 助手」的终极形态。首先,Skills 的设计非常工程化,Claude 不再傻傻地一口气加载所有技能,而是根据上下文判断该用什么技能,加载对应的脚本或指令,这点在实际使用中能显著节省上下文长度,尤其适合 token 资源有限的模型环境。其次,Skills 有很好的组合性与移植性。
2025-11-21 13:47:49
1224
原创 Dify平台调用DeepSeek-V3大语言模型,对电商退款原因进行智能分类的完整流程
本文详细介绍了使用Dify平台调用DeepSeek-V3大语言模型,对电商退款原因进行智能分类的完整流程。包括创建知识库、构建应用工作流、配置提示词、测试发布及批量运行等步骤,展示了大语言模型在文本分类任务中的实际应用价值,为开发者提供了可复现的实战案例。在电商领域的数据分析中,经常需要对一些文本进行分类统计,比如对用户填写的各类原因进行归类。
2025-11-21 11:48:22
1012
原创 AI Agent从入门到精通(全面详细)零基础也能学会,从理论到代码实战!
本文详细介绍了AI Agent的概念、发展历史及当前实现方式。Agent作为能自主感知环境、决策并执行动作的智能系统,经历了从规则驱动到强化学习再到大语言模型时代的演变。重点讲解了LLM Agent的两种架构:ReAct的推理-行动交替模式和Plan-and-Execute的先规划后执行模式,并通过代码实战展示了实现方法。最后探讨了影响Agent表现的关键要素,如Prompt控制、规划策略、工具调度等,为开发高效Agent提供了指导。
2025-11-19 13:45:44
1607
原创 LLM应用剖析 舆情分析多智能体 微舆BettaFish
一句话足矣~本文主要讲解了微舆的整体架构,并通过研读并调试源码,整理了多个Agent各自的执行流程、以及前后端交互。如项目原理、项目部署、源码等存在疑问,欢迎随时私信或留言交流!
2025-11-19 11:55:10
784
原创 Gemini Cli + Obsidian 才是知识管理的神!
我有个臭毛病,每天总会总结自己一天做了啥,原来我是通过模板配置来进行的每日总结和回顾。这个模板是长这样的:可以说,非常繁琐,现在有了 Gemini Cli,我可以让它自动帮我总结整理今日所思,所做,所学,然后基于配置模板帮我生成每日总结。# 任务 在"人生小记"文件夹中创建今天(2025-11-05)的日报 # 步骤 1.找到今天创建或编辑的所有文档;2.阅读所有的内容;3.按照"模板/canghe-daily"模板中的维度,分析我今天做了什么,学到了什么知识?
2025-11-18 14:58:08
871
原创 AI大模型Agent全栈教程:零基础入门到精通,一篇搞定所有知识点,建议马上收藏!
本文全面整理了Agent领域的前沿论文(131篇)和落地案例(321个),系统介绍单智能体与多智能体的核心技术形态,深入探讨大模型智能体与Graph+AI Agents的技术融合创新。内容覆盖从入门到研究应用的完整学习路径,为Agent领域学习者提供全方位指导资源。当前正是Agent发展的黄金时期,对于想要在该领域发论文的同学来说,掌握其高效的学习路径、深入了解Agent的核心系统形态/技术融合创新至关重要。
2025-11-18 14:35:22
921
原创 彻底爆了!一文了解LLM应用架构:从Prompt到Multi-Agent
本文详细解析大语言模型(LLM)应用的四个发展阶段:Prompt阶段通过提示词激活智能;Chain编排阶段实现固定流程与工具结合;Agent阶段让LLM自行规划并使用工具;Multi-Agent阶段通过专业Agent协作提高智能和稳定性。文章分析了各阶段优缺点,提供了Agent实现代码,指出当前趋势是从"+AI"向"AI+"转变,Multi-Agent通过水平扩展提高智能是未来发展的重要方向。👉目录1 Agent是什么?2 为什么会有Agent出现?3 Agent要怎么实现?4 总结。
2025-11-14 17:30:06
824
原创 从AI应用需求出发,一文全面理解提示词、上下文工程及RAG
除了模型这个大脑之外,上下文工程应该是最重要的存在之一。它既关系到利用的广度,又关系到模型利用的质量。概念关系概览(来源:参考资料[5])
2025-11-14 11:51:51
1004
原创 Google《智能体宣言》:从预测式AI到行动式AI,一文掌握智能体核心概念与架构设计!
Google最新《Introduction to Agents》白皮书标志着AI从"预测式"向"行动式"的范式转变。文章系统定义智能体新型软件范式,提出Think-Act-Observe工作循环和五层级智能体体系。核心组件包括Model(脑)、Tools(手)和Orchestration Layer(神经系统)。强调智能体是上下文窗口的策展人,引入Agent Ops运维概念和Agent Fleet治理框架,为开发者提供从单Agent到多Agent协作的完整路线图,推动AI从被动响应转向主动执行。
2025-11-13 14:53:53
1050
原创 9大智能体平台评测,从零基础到精通,收藏这篇就够了!
作者深度评测了9大AI智能体搭建平台(Dify、Coze、豆包、腾讯元器、文心智能体平台、通义、智谱清言、讯飞星辰Agent平台和纳米),重点关注提示词长度、语音输入、AI绘图和移动端支持等功能。通过对比测试,最终推荐智谱清言作为创建小学英语口语陪伴智能体的最佳选择,因其提示词支持度高、AI绘图功能完善且操作简单。上篇文章,分享了通过Agent平台,搭建一个小学口语陪伴的智能体。结果接下来,原本要聊的Agent平台体验分享,草稿在电脑中躺了2周多没有更新,实在惭愧。
2025-11-06 14:41:55
2249
原创 智能体经验分享:基于大模型(LLM)_的自主智能体,从入门到精通,一篇就够了!
本文详细介绍了基于大模型(LLM)的自主智能体系统架构,涵盖三大核心组件:规划(任务分解与自我反思)、记忆(短期与长期记忆存储)和工具使用(API集成)。文章探讨了多种实现方法如思维链、ReAct、Reflexion等,并展示了ChemCrow、AutoGPT等实际应用案例。同时分析了当前面临的挑战,包括上下文限制、规划可靠性及接口稳定性等问题,为构建高效LLM智能体提供了全面的技术参考。以大模型(LLM) 作为核心控制器的智能体 (Agent) 概念非常引人注目。
2025-11-06 14:37:58
911
原创 RAG技术的五种分类——不同种类RAG之间的区别与联系
文章详细介绍了RAG技术的五种架构类型及其演进过程:Naive RAG(基础版本)、Advanced RAG(功能升级)、Modular RAG(模块化开发)、Graph RAG(知识图谱存储)和Agentic RAG(智能体自主判断)。这些架构虽形式不同,但本质都是为了通过检索增强模型生成能力,提升解决用户问题的效果。不同架构可互相协调,共同增强RAG系统性能。RAG的架构虽然有所不同,但其原理都是相同的,都是通过检索来增强模型的生成能力,只不过在不同的环节做了不同的优化。
2025-11-04 15:10:28
668
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅