- 博客(1259)
- 收藏
- 关注
原创 大模型智能体开发必学:意图路由与查询重写,收藏这篇就够了
文章探讨了构建大模型智能体时的核心挑战:用户自然语言输入与系统执行逻辑之间的鸿沟。重点介绍了两个关键技术:意图路由(通过分类任务将用户输入分发给合适的工作流)和查询重写(将模糊的用户输入转化为机器可理解的精准指令)。文章提供了通用prompt模板和实战策略,强调构建推理前处理层是区分简单聊天机器人与真正智能业务助理的关键,对开发高质量Agent系统具有重要指导意义。
2025-11-24 19:54:38
305
原创 【收藏必备】小白也能学会!LLaMA Factory实现LLMs微调完整指南
本文详细介绍了使用LLaMA Factory对大语言模型进行指令监督微调(SFT)的完整流程。内容涵盖微调技术概念与分类、高质量训练数据构建与格式化、全量微调(Full FT)和参数高效微调(PEFT/LoRA)两种训练策略,以及模型评估和API部署方法。通过系统化演示,帮助读者将基础LLM转化为解决特定业务问题的定制化智能体,适用于小白和程序员学习大模型微调技术。
2025-11-24 19:45:44
347
原创 【必藏】全网最透彻!一张图拆解AI Agent核心架构,从感知到进化的完整逻辑
本文基于Prem Natarajan框架,拆解AI Agent的五大核心维度:AGENT(本体)、SENSE(感知)、THINK(思考)、PLAN(规划)和LOOP(闭环)。详细解释了Agent如何通过感知世界、深度推理、规划行动和反馈闭环实现自主学习和进化,展示了AI从内容生成者到任务执行者的转变,为理解现代智能体架构提供了全面视角。
2025-11-24 19:36:13
516
原创 你的AI为什么总是“差点意思”?建立提示词审美,让60分的AI模型跑出90分效果,建议收藏!!
本文阐述了提升AI输出的提示词审美艺术,提出三层核心审美:结构之美(清晰视觉层次)、边界掌控力(明确限制条件)和逻辑显性化(展示思考过程)。最高境界是"把AI当人看",通过角色激活高质量数据。掌握提示词审美本质上是思维自我修炼,是人机交互的艺术,也是提升AI效果的关键杠杆。
2025-11-24 19:22:56
274
原创 【必藏】告别CRUD,拥抱AI!2026程序员转型大模型开发,错过再无红利期
文章强调AI是当前最后的技术风口,传统开发薪资停滞,而AI人才溢价明显。介绍了GitHub Copilot、ChatGPT等工具能提升开发效率,以及AI工程化、大模型应用开发等热门技术。作者指出AI红利期仅剩3年,程序员应抓住机会转型,否则可能面临淘汰风险,并提供了AI副业变现的可能性。
2025-11-24 18:42:42
174
原创 AI大模型开发入门指南:零基础程序员如何抓住高薪风口?(值得收藏)
AI技术正在重塑各行各业,从智能制造到智慧医疗,从金融风控到自动驾驶,企业对AI人才的需求呈指数级增长。目前,AI技术已广泛应用于金融、医疗、制造等20多个行业,超过60%的职场人日常使用AI工具辅助工作, 技术应用场景不断拓宽。无论是传统行业还是新兴领域,AI技术的应用场景不断拓宽,岗位缺口持续扩大。根据智联招聘的数据,2025年春招首周,人工智能工程师的求职增速达到69.6%,岗位数量也同步攀升,可以说是供需两旺,双向奔赴。
2025-11-24 18:20:35
551
原创 【收藏】AI产品经理转行全攻略:薪资32k+,非AI背景如何切入五大方向
文章基于869个AI产品经理岗位分析,指出市场分化为五大方向,平均月薪32.2k(比传统PM高58.6%)。能力要求分三层:核心技术理解、产品应用实践和前瞻洞察。转行无需高门槛AI背景,关键是"AI+行业"复合能力。建议从业者重构现有项目为AI方案、提升SQL/Python等工具技能、在面试中展示AI思维转变。真正的"AI+行业"专家价值将被重新定义。
2025-11-24 10:35:41
636
原创 大模型开发面试通关秘籍:25家大厂真题解析,技术点全覆盖,收藏不亏!
本文分享了作者参加的大模型应用开发岗位面试经验,覆盖阿里、腾讯等25家大厂。面试内容主要围绕LLM基础、RAG、微调、Agent等技术点,八股文较少。作者强调掌握微调原理和动手实践的重要性,分享了面试技巧、offer谈判策略及常见面试题解析。建议做好技术准备、项目复盘和清晰表达,关注落地效果评估。
2025-11-22 19:50:36
540
原创 【大模型入门必备】Transformer架构与Attention机制:大语言模型的基石
文章详细介绍了Transformer架构,这是大语言模型如ChatGPT的核心技术。内容包括输入分词、词嵌入、注意力机制和多层感知机等关键组件的工作原理,以及训练过程、参数优化和温度控制等概念。通过注意力机制,模型能够捕捉词语间的长距离依赖关系,理解上下文语义,从而实现强大的语言理解和生成能力。
2025-11-22 19:31:03
874
原创 【必藏】小白到精通:Transformer内部工作原理全解析,大模型核心架构一文搞定
本文深入剖析Transformer内部工作原理,详细介绍了嵌入层、位置编码层、编码器和解码器堆栈结构,以及多头注意力机制和注意力掩码的作用。通过具体示例展示了数据流动过程和各阶段计算,帮助理解Transformer设计理念,并解释了输出生成和训练中的损失函数,为理解大模型核心架构提供全面指导。
2025-11-22 15:19:18
633
原创 收藏这篇!小白也能看懂的大模型提示词可视化指南,实现效率10倍提升!
文章从可视化视角揭秘了大模型提示词的底层逻辑,指出大模型本质是在高维向量空间中预测下一个词的过程,提示词作用如同调整词语坐标。作者提出五种方法:精准定位、设定角色、坐标平移、微调和开放探索。强调理解原理比收藏技巧更重要,只有掌握提示词背后的逻辑,才能更有效使用大模型获取理想结果。
2025-11-22 14:40:59
527
原创 一个能用的AI Agent,是怎么“长”出来的?大模型Agent开发实战:收藏这份提示词工程与调优经验
文章分享了开发大模型Agent的实践经验,强调开发前需明确定义成功标准和准备评测用例集。作者提出五大技巧:结构化提示词、减少Few shot示例、精简输入信息、拆分小Agent职责以及考虑版本回滚。同时指出Agent开发是迭代过程,难以达到100分准确率,应接受现实并通过ReAct、RAG等方法提升效果。好的Agent是在不断测试、迭代中"长"出来的。
2025-11-22 13:59:24
607
原创 【收藏必备】RAG检索增强生成技术:从入门到实战,小白与大模型程序员必学指南
文章详细介绍了RAG(检索增强生成)技术,这是一种结合信息检索与文本生成的人工智能技术,旨在通过引入外部知识库解决大语言模型的幻觉问题。文章阐述了RAG的三阶段工作流程(检索、增强、生成),讲解了知识库构建中的文本分块与向量化技术,以及知识图谱构建中的实体关系抽取方法。通过结合Prompt工程与RAG技术,可实现更精准高效的文本生成,提升大模型在特定领域的应用效果。
2025-11-22 11:55:00
701
原创 收藏必备!2025年RAG不落后:父子文档索引解决检索与理解的“不可能三角“
文章介绍父子文档索引(Parent-Child Indexing)这一高阶RAG技术,用于解决传统RAG中的"上下文碎片化"问题。该技术将检索粒度与理解粒度解耦:使用小粒度子文档进行精确检索,通过ID映射召回包含完整上下文的大粒度父文档供LLM生成回答。这种策略既保证了检索的精确性,又确保了生成时拥有完整的上下文,特别适用于法律文档、技术手册等逻辑严密的信息场景,实现了"既见树木,又见森林"的数据治理能力。
2025-11-22 11:35:55
597
原创 【干货收藏】一文搞懂Agent技术:从理论到实践的全方位解析
本文详解了Agent的概念、组成及设计模式。Agent是能独立完成任务的系统,由模型(思考决策)、工具(执行操作)和指令(行为规范)三大核心组件构成。文章通过"抢机票"案例解释各组件功能,并介绍编排模式与单/多智能体设计,为后续实战开发奠定理论基础。
2025-11-21 19:56:21
701
原创 收藏!AI产品演进三阶段:从+AI到AI+的PMF必学之路,看到就是赚到,建议收藏!!
文章探讨AI产品从"+AI"到"AI+"的演进路径,通过Codeium、MarsCode等案例展示三阶段发展模型。强调AI产品需深入理解模型能力边界,通过端到端体验设计和合理功能边界评估找到落地场景。重构AI时代PMF概念,提出除传统指标外,还需关注专有数据积累和主航道偏离度,构建不被颠覆的AI产品护城河。
2025-11-21 19:39:46
539
原创 收藏必备!一文搞懂大模型核心概念:从AIGC到Agent再到MCP协议,小白程序员也能轻松入门
本文系统介绍了AI大模型技术演进:从单/多模态AIGC基础能力,到解决实时性和工具调用问题的RAG与Function Calling技术,再到具备规划执行能力的Agent智能体,最后探讨MCP协议如何作为统一标准解决工具集成难题。文章以通俗易懂的方式解释了各技术间的关系及发展脉络,帮助读者建立完整的AI知识框架。
2025-11-21 19:17:36
437
原创 【程序员必藏】MOON多模态大模型实战:阿里电商CTR提升20%的技术解析,建议收藏!!
MOON是阿里妈妈研发的电商多模态表征模型,采用PreTrain-PostTrain-Application三阶段解耦范式,解决了稀疏稠密模型结合的难题。该模型在手淘搜索广告场景全链路应用,累计带来大盘CTR+20%的提升。文章分享了多阶段路线相比端-to-end的优势,以及MOON在模型架构、数据处理、规模扩展和应用场景四个方向的迭代经验,为多模态大模型在电商搜索广告中的应用提供了宝贵参考。
2025-11-21 13:53:46
779
原创 京东、阿里、字节都在押:AI+物流机器人为何成风口?互联网大厂如何用AI大模型布局物流机器人产业?
互联网大厂正通过AI大模型赋能物流机器人,推动其从"功能机"向"智能体"跃升,行业竞争从单一产品转向物流链路整体效率。资本从概念转向产业化,规模化量产与商业化闭环成关键。行业面临"头部虹吸"挑战,需更多产业资本激活创新活力。
2025-11-21 11:49:35
1155
原创 从零开始理解AI Agent:小白必学的智能体开发指南,建议收藏!
AI Agent是一种具有自主意识的智能体程序,通过感知环境、推理决策并采取行动完成任务。其运行流程分为三部分:思考(大语言模型作为"大脑")、行动(调用工具执行任务)和观察(感知环境变化)。这三个环节形成"思考→行动→观察→再思考"的循环机制,使AI Agent具备持续学习和自我优化能力,能像人类一样适应并影响世界。
2025-11-21 11:16:58
255
原创 【收藏】大模型训练加速秘籍:LLaMA Factory与Megatron-LM的无缝集成方案
本文介绍了如何通过MCoreAdapter桥接层,将LLaMA Factory的易用性与Megatron-LM的高性能分布式训练能力相结合,实现SFT、DPO和ORPO等主流微调任务的分布式加速训练。文章详细提供了环境配置、训练脚本编写和模型权重转换的完整指导,特别强调了该方法在百亿参数以上超大规模模型训练中的显著优势。
2025-11-21 10:26:31
969
原创 收藏!未来AI开发必备:Agentic RL让大模型从对话到行动的蜕变
本文阐述了Agentic RL如何推动AI智能体从对话生成器进化为能在真实世界中完成复杂任务的自主决策系统。与传统LLM-RL不同,Agentic RL将智能体建模为部分可观察的马尔可夫决策过程,通过强化学习优化推理、记忆、自我提升等六大核心能力,使智能体从"模仿者"进化为"策略家",实现自我进化,标志着AI智能体开发进入需要掌握强化学习的"深水区"。
2025-11-20 19:54:54
735
原创 【AI大模型大厂面试真题】阿里大模型一面:“RAG是什么?”看完这一篇你就知道怎么回答了!!
文章详细介绍了RAG(检索增强生成)技术,解释了开放域问答系统的三种类型,重点阐述了RAG的基本框架,包括检索器和生成器两个阶段。随着大模型参数量增加,纯生成方法虽效果好但存在幻觉和知识截止时间等问题,而结合RAG技术可有效解决这些问题,成为大模型应用的典型方案。
2025-11-20 19:42:55
783
原创 收藏!5个超实用AI提示词模板,让Deepseek把知识嚼碎喂进你脑子!助你深度思考、高效学习
文章分享了5个用于训练深度思考能力的AI提示词模板:苏格拉底式提问法加大理解深度;关联概念分析拓宽理解广度;批判性思维分析强化批判意识;多元应用场景发掘知识实用性;一键生成学习卡整合知识要点。这些模板帮助用户借助AI工具提升思考的深度、广度和灵活度,真正掌握知识本质而非停留在表面理解,适用于各类AI平台如Deepseek、豆包、通义等。
2025-11-20 19:23:57
790
原创 福报厂面试官问:Agent的Function Call准确率怎么提升?该怎么回答??
本文系统介绍了AI Agent中Function Call工具调用的5大优化策略:动态函数路由减少工具噪音,CoT+Plan-Execute实现先规划后执行,结果校验层拦截参数错误,长程记忆保持上下文连贯,日志驱动持续优化。通过真实案例验证,这些方法能显著提升工具调用准确率和系统稳定性,是构建可靠Agent工程体系的核心技术。
2025-11-20 14:17:19
999
原创 AI大模型开发宝典:通用智能体框架架构设计与实现指南(建议收藏)
通用智能体开发框架采用三层递进式架构,通过指挥智能体、数据智能体、分析智能体和系统记忆组件协同工作,实现多源异构数据处理、跨领域任务协同和动态环境自适应。该框架提供模块化设计、动态资源调度和全链路安全机制,支持企业知识库、金融风控等场景应用。未来将聚焦领域大模型适配、联邦学习和记忆压缩优化,推动智能体向通用化演进。
2025-11-20 11:49:46
782
原创 【深度收藏】揭秘LLM强化学习:为何RL无法真正提升模型能力及可能的解决方案
文章分析了三篇关于LLM中RL学习的前沿研究:第一篇证明RL训练并未拓展模型能力边界,仅提高搜索效率;第二篇通过"三重门"理论解释RL参数更新的局部化特征;第三篇指出SFT虽能扩展能力但导致灾难性遗忘,而RL能避免遗忘。文章探讨学习新能力与避免遗忘间的权衡,并提出"On-policy Distillation"作为潜在解决方案,结合RL与SFT优势,可能实现能力扩展、高效搜索与避免遗忘的三重目标。
2025-11-20 10:37:27
786
原创 【干货收藏】从文档到知识图谱:大模型驱动的自动化构建方案,提速4周+
文章介绍了一个基于大模型的自动化知识图谱构建系统,通过数据发现与分析、智能建模、一键抽取评估入库四大步骤,实现从文档到知识图谱的全流程自动化。用户只需自然语言描述任务,系统便能自动完成数据处理、模型构建和neo4j入库,无需编程或深入业务知识,大幅提升知识图谱项目落地效率,至少节省4周开发时间。
2025-11-20 10:17:41
807
原创 【珍藏干货】Tool-to-Agent检索技术:统一工具与代理检索,让你的大模型多代理系统性能提升28%
本文提出Tool-to-Agent Retrieval(T2A)方法,通过将工具和代理置于同一向量空间,使用统一编码器嵌入描述并建立二分图关联,实现工具和代理的统一检索。实验表明,该方法在LiveMCPBench数据集上相比基线方法最高提升28%的Recall@5指标。研究证实,39%的召回直接命中Agent描述,34%通过工具→Agent映射召回,证明工具细节能有效补足Agent摘要语义,提升大模型多代理系统效率。
2025-11-19 16:29:37
599
原创 【深度收藏】AI如何“听懂“人类语言?大模型词嵌入技术原理解析
文章介绍了AI大模型理解语言的基础——词嵌入技术。从早期文字数字化的局限(索引和独热编码)讲起,解释了词嵌入如何通过分布假说将词语转化为低维稠密向量,形成语义空间。进而展示了这种技术如何从词语扩展到句子和多模态表示,成为AI理解语言的关键基石。词嵌入的质量直接决定了大模型的理解能力和表现。
2025-11-19 16:18:23
689
原创 【必学收藏】传统知识库vs AI知识库:从零构建智能知识库的完整指南
文章对比了传统知识库与AI知识库的差异,指出AI知识库通过智能化提升信息检索效率。分析了AI知识库的三个视角(公司、业务团队、CEO),强调优质数据是基础。详细介绍了RAG技术原理,包括知识入库(清洗、分块、向量化)和检索(优化、召回、重排序)流程。指出AI知识库最终目标是构建能辅助决策的Agent,而非简单的知识存储系统。
2025-11-19 15:27:05
933
原创 大模型RAG检索技术:原理、实践与未来趋势,零基础小白收藏这一篇就够了!!
本文详细介绍了检索增强生成(RAG)技术,通过检索外部知识库解决大模型知识时效性和真实性问题。文章系统阐述了RAG系统的三大核心模块:向量化模块、检索器和生成器,深入探讨了多种检索技术类型,包括稀疏检索、稠密检索、混合检索及重排序策略。同时分析了RAG检索器的工程挑战和解决方案,通过代码示例展示实现方法,并展望了多模态检索、记忆增强检索等未来发展方向。
2025-11-19 14:20:23
665
原创 AI大模型必备知识:Transformer位置编码详解与实践,零基础小白收藏这一篇就够了!!
本文详细解析了Transformer模型中的位置编码技术,包括其必要性、作用和分类。重点介绍了绝对位置编码(正弦余弦、可学习)、相对位置编码和旋转位置编码(RoPE)的原理与实现,并比较了它们的优缺点。文章提供了完整的代码示例和实用建议,帮助开发者根据任务需求选择合适的位置编码方法,特别强调了RoPE在现代大模型中的广泛应用价值。
2025-11-19 11:53:18
661
原创 【必藏】提升RAG系统准确率:朴素分块vs后期分块的深度解析与实战指南
文章探讨了RAG系统中两种分块策略的区别。朴素分块先切分文档再生成嵌入向量,简单高效但丢失上下文;后期分块先处理完整文档生成包含全局上下文的嵌入向量,再切分,保留语义完整性。后期分块能解决代词指代不明等问题,虽面临显存成本挑战,但代表了从"机械处理"向"深度语义理解"的跨越,是提升RAG系统智能水平的关键一步。
2025-11-19 11:18:59
639
原创 AI大语言模型(LLM)开发与训练入门,大语言模型训练全指南:从原理到实践,建议收藏!!
大语言模型(LLM)是通过海量数据训练的AI系统,能理解和生成类人文本。文章详细介绍了LLM的架构基础(如Transformer和注意力机制)、前沿训练技术(预训练、微调、优化算法)、训练挑战(计算资源、偏见问题、缩放定律)以及实际应用(NLP、代码生成、创意内容)。这份指南为读者提供了全面理解LLM训练过程的关键知识。
2025-11-19 10:30:54
1010
原创 【必学收藏】LangGraph记忆与检索系统实战:从零构建能记住对话、查阅私有资料的AI Agent
该文介绍了一个基于LangGraph的AI Agent记忆与检索系统,采用双层记忆结构:短期记忆通过对话摘要缓解token压力,长期记忆通过文档向量化存储实现检索。系统整合了SQLite数据库、Sentence Transformers向量化、LangGraph节点编排和React前端,实现了从文档上传、处理到智能问答的全流程。通过将短期摘要与检索片段作为隐藏SystemMessage注入,显著提升了回答的相关性和准确性,同时保持了原有Planner/Executor的主路径。
2025-11-18 15:20:53
246
原创 大模型小白必看:知识记忆不足?RAG技术解决方案(建议收藏)
大语言模型在知识记忆方面存在局限性,需多次曝光才能记住知识点,且知识库静态无法处理实时信息。检索增强生成(RAG)技术通过引入外部知识库,让模型动态检索信息,将"闭卷问答"转为"开卷考试"。RAG系统包含检索和生成模块,可处理多层级任务,已在多个产品中广泛应用,有效解决了大模型知识更新和幻觉问题。
2025-11-18 15:08:13
310
原创 【收藏必备】Mac上安装Ollama+Qwen2.5-VL 7B全攻略:从入门到图片分析实战
本文详细介绍了在Mac上安装Ollama并部署Qwen2.5-VL 7B视觉语言模型的完整流程。包括通过命令行或GUI界面下载模型,演示了文本对话和图像识别功能,以及如何使用Python调用Ollama接口实现图片分析。Qwen2.5-VL 7B作为本地部署的"视觉小钢炮",在文档解析、表格分析、图片理解等多模态场景中表现出色,适合需要本地部署保护隐私的应用场景。
2025-11-18 14:55:56
538
原创 【收藏必备】揭秘大模型核心:Transformer架构完整拆解,零基础小白收藏这一篇就够了!!
本文详细拆解了Transformer架构,包括输入嵌入与位置编码、多头自注意力机制、前馈网络、编码器与解码器的工作原理。Transformer通过自注意力实现词元间的关联,结合前馈网络处理非线性模式,编码器提供双向上下文理解,解码器负责自回归生成。现代大模型通常只保留解码器部分,通过大规模参数实现强大的语言理解和生成能力。Transformer本质上是堆叠矩阵乘加注意力的序列处理机器,是大语言模型的技术基础。
2025-11-18 14:25:08
613
原创 【珍藏干货】LangChain V1.0 智能体创建完全指南:从零构建你的第一个大模型应用
本文详细介绍了LangChain V1.0智能体创建的新机制,重点讲解了create_agent()作为标准入口如何封装LangGraph执行机制,简化了"模型调用→工具决策→执行→结果整合"的闭环流程。文章通过实例演示了如何准备模型、工具、记忆和提示词,快速构建生产级智能体,使开发者能够更高效地开发大模型应用。
2025-11-18 11:48:50
1001
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅