- 博客(17)
- 收藏
- 关注
原创 AI 智能体架构设计3阶段演进和3大关键技术对比剖析
AI智能体架构演进与关键技术解析 AI智能体发展经历了三个阶段:LLM Agent(基于提示词的娱乐化聊天机器人)、AI Agent(整合规划、记忆和工具使用能力的实用型智能体)和Muti Agent(多智能体协作系统)。三个阶段逐步解决大模型的幻觉、可控性及专业化分工问题。 关键技术方面: Function Calling:大模型调用外部工具的基础能力,但存在接口碎片化问题; MCP协议:统一工具交互标准,类似“AI生态的USB-C”,但落地面临适配复杂、场景局限等挑战; A2A通信:实现智能体间高效协作
2025-06-23 15:48:23
989
原创 为什么说:图智能=GNN+(LLM | 图提示)
摘要:随着AI技术的快速发展,大型语言模型(LLM)与图提示学习技术正成为图智能领域的新标杆,性能超越传统图神经网络(GNN)。港科大等研究机构在KDD2024上总结了LLM在图智能中的三大应用方式:1)作为GNN增强器,通过文本嵌入优化节点表示;2)作为预测器,直接处理图任务或结合GNN进行结构感知推理;3)通过嵌入空间对齐实现GNN与LLM的协同优化。此外,图提示学习技术借鉴自然语言处理思路,探索图数据的迁移能力。当前AI大模型人才缺口巨大,相关学习资源为从业者提供了系统化进阶路径。(148字) 注:摘
2025-06-19 15:59:10
1036
原创 DeepSeek基础:模型预训练概念与技术详解【建议收藏】
摘要: 预训练技术是AI领域重大突破,其核心思想是让模型先通过海量无标注数据学习通用语言知识(如BERT、GPT的Transformer架构),再针对具体任务微调。这种范式解决了传统机器学习对标注数据的过度依赖,赋予AI强大的泛化能力、少样本学习能力和多任务适应性。关键技术包括掩码语言模型和自回归预测等自监督学习任务。尽管存在计算成本高、可解释性差等缺点,预训练模型已在对话系统、内容创作、代码生成等场景展现惊人能力,成为当前AI发展的核心驱动力。该技术本质是构建具备基础语言智能的“通用大脑”,为后续应用提供
2025-06-16 11:42:10
671
原创 一文彻底搞懂什么是MCP和Agent
MCP是一种通用标准的Agent协议,它解决了不同大模型间的工具适配问题。通过MCP,开发者可以扩展大模型的能力,使其能够调用外部工具完成绘画、搜索、文件处理等多样化任务。MCP由客户端和服务器端组成,遵循统一协议开发的应用可以跨模型通用。这一标准为构建大模型生态系统提供了基础,使大模型成为类似操作系统的平台,支持开发各类标准化应用,大大提升了人工智能的应用潜力。MCP的出现标志着大模型进入标准化发展的新阶段。
2025-06-13 15:03:25
569
原创 SQL语句生成智能体——vanna项目介绍
Vanna是一个基于大模型的SQL生成开源项目,利用RAG技术将自然语言转化为SQL查询语句。其核心是通过训练阶段存储数据库结构和文档到向量数据库,在提问时检索相关信息并拼接成提示词,由大模型生成相应SQL。项目支持自定义训练接口,兼容多种数据库引擎和数据分析工具,并通过正则表达式校验SQL安全性。相比pandas等内存分析方案,Vanna更适合处理海量数据,直接利用数据库引擎执行统计查询。该方案将传统DBA的SQL编写工作智能化,实现了更高效的自然语言数据分析流程。
2025-06-11 22:22:29
416
原创 一文读懂:MCP Servers架构如何像“操作系统”一样管理你的AI能力?
还记得“能力中台”这个词最火的时候吗?几乎每一家大厂都在讲“构建能力中台,实现业务赋能”。然而几年过去了,真正落地且高效运转的“中台系统”却寥寥无几,许多团队甚至在复盘中发现:传统的“中台”架构设计越用越重、越改越慢,最终成了“能力孤岛”的代名词。
2025-06-10 11:28:27
862
原创 AI Agents开源工具栈全解析!【建议收藏,反复阅读】
我们按照构建Agent的逻辑顺序,逐一盘点。9大类型、50个实用工具合集! 照旧,也做了一个网页展示(这次测试了一些比较酷的动效,需要网页源码的可以后台私信发送 Agent工具栈
2025-06-09 20:36:58
945
原创 终于把卷积神经网络算法搞懂了!!
它通过局部感受野、权值共享和池化操作,有效提取输入数据的空间特征,大大减少了参数数量,提升了模型的表现力和计算效率,广泛应用于图像识别、目标检测、自然语言处理等领域。
2025-06-07 11:57:40
372
原创 为什么 RAG 一定需要 Rerank?
RAG技术中重排序(Rerank)的重要性日益凸显。虽然向量检索能快速获取初步结果,但存在信息压缩导致的召回率不足问题。重排序通过两阶段策略优化检索:先快速获取候选文档,再利用交叉编码器精细排序,显著提升结果相关性。尽管重排序计算成本较高,但其能动态分析查询与文档关系,克服双编码器的局限性。这种方案在保证检索效率的同时,有效提升大语言模型的上下文处理能力,是优化RAG系统效果的关键环节。
2025-06-06 19:13:52
570
原创 HF.105 I 学起来!教你用AI绘制SCI发表级别流程图...
AI助力科研流程图绘制新范式 ChatGPT-4o为科研制图带来革新,尤其在水文循环研究中展现出显著优势。该技术能根据自然语言描述自动生成结构严谨的方法流程图,包括数据输入、模型训练等关键环节,并支持高分辨率输出。通过两个水文研究案例(TWSA预测模型和HBV水文模型)展示了其实际应用效果,证明AI绘图不仅节省90%制图时间,还能确保逻辑准确性和专业表达。这种智能制图方式将科研可视化推进到人机协作新阶段,有效提升科研成果的传播效率。
2025-06-05 16:55:22
1210
原创 PPO & GRPO原理,小学生也能看懂!
在强化学习(RL)中,如果我们只知道“做对了能拿多少分”,那往往还不够,因为单纯追求高分可能带来种种副作用,比如过度搜索、模型不稳定、甚至“走捷径”而偏离合理范围。
2025-06-04 13:58:16
923
原创 Transformer不止自注意力!被低估的FFN才是架构的另一半真相!
本文深入解析了Transformer模型中的前馈全连接层(FFN)的结构与作用。FFN通过两层线性变换和ReLU激活函数,对自注意力机制处理后的token表示进行非线性变换,显著提升了模型的表达能力。文章详细介绍了FFN的输入准备、计算流程(包括维度扩展、非线性激活和维度还原),并通过具体示例和PyTorch代码实现展示了其工作原理。FFN作为Transformer的关键组件,独立处理每个token,使模型能学习更复杂的模式,是Transformer成功的重要技术支撑。
2025-06-03 16:30:34
663
原创 RAG其实并没有你想的那么简单,Late Chunking vs Contextual Retrieval解决上下文难题
RAG技术因新型AI模型兴起而遇冷,但其核心挑战在于上下文缺失导致检索效果不佳。文章分析两种优化策略:Late Chunking(先整体编码再切分,保留全局语义)和Contextual Retrieval(用LLM为片段添加上下文说明)。前者依赖长文本模型能力,后者通过人工扩充片段信息,二者均显著提升检索准确率。这些改进证明RAG技术仍具深度优化空间,而非简单过时。
2025-05-30 14:18:28
617
原创 一文搞懂大模型的预训练、微调和蒸馏
预训练使用海量无标注标注数据(如互联网文本、图像库)进行通识教育(大学基础课程);微调使用专业领域标注数据(如医疗影像、法律文书、代码库)进行专业培训(入职后的岗位技能培训);蒸馏使用教师模型的输出(如概率分布、推理链)进行经验传承(老员工带新人)。
2025-05-29 17:09:10
482
原创 大模型推理的全面总结: 从DeepSeek->Kimi->豆包->Qwen3
近期大语言模型领域在推理能力方面取得重要进展。研究表明强化学习并不能真正提升模型的基础推理能力,而是通过优化输出分布来提高性能。主流模型如Seed-Thinking-v1.5、DeepSeek-R1、Kimi-K1.5和Qwen3通过不同方法增强推理能力,关键要素包括:强大的基础模型、高质量训练数据(覆盖多领域且难度均衡)、针对性设计的奖励模型,以及在预训练和后训练阶段都融入推理数据。这些研究为开发更强大的推理模型提供了重要指导。
2025-05-28 16:01:38
1188
原创 AI 编程神器 Cursor 十大使用技巧:让代码更听你的话
AI 辅助编程已经是一个不可逆的潮流趋势,不能高效使用 AI 工具为己所用的程序员将很快被时代抛在后面。本文作者基于自己过去半年对 Cursor 的深度体验,撰写了本文,让你的代码更听话,实现极致心流体验。
2025-05-27 16:42:18
1415
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅