- 博客(895)
- 收藏
- 关注
原创 解锁AI潜能!提示词工程完全指南
本文详细介绍了AI提示词工程的原理与实践。阐述了提示词的核心要素(角色、背景、任务、输出格式)和实用技巧(角色扮演、范例提供、迭代追问等)。进阶部分包含功能性提示词设计和行业级系统提示词构建。作者强调提示词工程是一种"表达艺术",通过清晰具体的描述能让AI更好理解需求,输出更精准的答案。文章提供了丰富实例和框架,帮助读者掌握与AI高效沟通的方法。
2025-11-24 17:42:03
462
原创 大模型应用开发实战:LangChain提示词模板全解析
本文详细介绍了LangChain框架中的提示词模板技术,包括文本提示词模板(PromptTemplate)、对话提示词模板(ChatPromptTemplate)、少量样本提示词模板(FewShotPromptTemplate)和消息占位符提示词模板(MessagesPlaceholder)等。通过丰富的代码示例,展示了各种模板的创建方法、参数配置和实际应用场景,帮助开发者掌握如何构建高效的结构化提示词,提升与大语言模型的交互质量,为大模型应用开发提供技术支持。
2025-11-24 17:40:03
682
原创 程序员必学:RAG技术如何解决大模型的幻觉问题
RAG(检索增强生成)技术通过引入外部知识检索,解决了大语言模型知识时效性差、幻觉频发等问题。其系统包含四个核心阶段:Chunking将文档划分为知识块并转化为向量;Retrieval通过相似度匹配检索相关内容;Reranking对候选结果重新排序以提高精确率;Generation基于筛选后的知识块生成答案。这一"信息获取→筛选→理解→生成"的智能链路,大幅提升了大模型回答的准确性和领域适应能力。
2025-11-22 18:08:51
856
原创 LangGraph Agent记忆持久化完全指南:从内存到Redis/MongoDB的4种方案实战对比
本文详细解析了LangGraph Agent的四种记忆持久化方案:内存记忆(MemorySaver)、Redis持久化、MongoDB持久化及文件持久化(FileSaver)。通过完整代码示例与实战对比,帮助开发者根据不同场景选择最合适的技术方案,解决AI Agent从"玩具"到"工具"的关键升级问题,实现对话记忆持久化。
2025-11-22 18:06:59
671
原创 构建自主LLM智能体的四大支柱:感知、推理、记忆、执行全解析
该文解读了《Fundamentals of Building Autonomous LLM Agents》综述,系统介绍了构建自主LLM智能体的四大核心组件:感知(处理环境输入)、推理(制定和调整计划)、记忆(提供长期知识存储)和执行(将决策转化为行动)。文章详细阐述了各组件的技术实现和设计原则,为LLM从"文本生成器"向"任务执行者"的演进提供了理论框架和实践指导。
2025-11-21 18:41:16
732
原创 智能客服的GraphRAG革命:从关键词匹配到认知智能
GraphRAG技术通过融合知识图谱与检索增强生成(RAG),重构传统智能客服系统,使其从基于规则的关键词匹配进化为具有认知能力的智能系统。该技术解决了传统客服的三大瓶颈:规则僵化、知识碎片化和服务冷机械,通过双核驱动架构实现语义理解、记忆存储和业务执行三层能力跃迁。实施后可显著提升客服效率和用户体验,并正向企业级AI Agent演进,预示着未来客服将向多模态交互、主动服务和行业深度渗透方向发展。
2025-11-21 18:40:22
846
原创 手把手带你从零开始掌握 LangChain,构建自己的 AI 应用
本文详细介绍 LangChain 框架如何解决大模型知识过期、无记忆能力和缺乏工具使用能力的三大局限。通过五阶段实战教程,从基础环境搭建到记忆功能、RAG检索增强、Agents工具使用,再到Streamlit网页界面和LangGraph流程编排,手把手教读者构建自己的AI应用。文章提供完整可运行代码,适合零基础读者学习,助力开发者快速掌握大模型应用开发技能。
2025-11-21 18:38:46
610
原创 大模型少样本提示完全指南:3-5个示例让AI表现飙升
少样本提示是通过提供少量(2-5个)任务示例引导大语言模型理解任务需求的技术。其优势在于提升表现、快速适配和降低数据需求。设计时需注意提示结构清晰、任务描述明确、示例排序合理,确保示例具有典型性、一致性和多样性。示例质量受数量、排序、标签分布等因素影响,大模型更善于利用少样本学习。为消除模型偏见,可采用校准技术,而强化型和无监督上下文学习可帮助构造更多示例。
2025-11-20 11:37:22
1137
原创 程序员必学:云服务器上搭建RAGFlow大模型应用
本文详细介绍了在云服务器上搭建基于RAGFlow的大模型应用全流程,包括租服务器、安装Ollama和DeepSeek模型、部署Docker环境、配置RAGFlow、启动服务以及接入LLM模型进行知识库测试。教程提供了详细的命令和配置说明,适合有一定技术基础的开发者快速上手构建自己的大模型应用,实现知识库问答功能。
2025-11-20 11:32:25
683
原创 DeepSeek+本地知识库搭建全攻略:零基础打造媲美GPT-4的私人AI助手
本文详细介绍使用DeepSeek大模型搭建本地知识库的两种方案:基于Cherry Studio和AnythingLLM。通过安装嵌入模型、配置本地服务、添加知识文档等步骤,构建个人知识库系统。该方案具有隐私性好、离线可用、能快速查找文档并自动关联、参考开发习惯生成代码等优势。文章提供详细操作指南,特别推荐Cherry Studio作为非技术人员首选,适合打造私人AI助手。
2025-11-20 11:30:25
1168
原创 大模型三大增强技术(RAG/微调/提示工程)详解与实战代码,从入门到应用
文章介绍了三种增强大语言模型能力的技术:RAG通过检索外部知识增强回答;微调使模型适应特定任务;提示工程优化问题表述方式。重点讲解了RAG的工作原理,包括文档嵌入、向量库构建和相似度检索,提供了FAISS构建RAG系统的代码示例和Streamlit应用界面。这些技术各有优劣,可根据不同场景选择应用。
2025-11-19 16:11:35
1092
原创 DCA技术解析:让大模型上下文从4k扩展到100k+,无需训练的神技
DCA(双块注意力机制)是一种革命性技术,能让大语言模型在不做任何训练的情况下,将上下文从4k扩展到100k+ tokens。它通过三种注意力机制实现:块内注意力保持原有性能,块间注意力重映射超长距离,连续块注意力确保块间平滑过渡。DCA具有计算效率高、性能保持、兼容现有技术等优势,适用于长文档分析、对话系统长记忆等场景,是解决大模型上下文限制的有效方法。
2025-11-19 16:10:45
827
原创 本地大模型部署全攻略:从安装到API调用,建议收藏备用!
本文详细介绍了如何使用Ollama工具在本地电脑上部署大语言模型。内容包括Ollama的安装、根据硬件配置选择合适模型(1.5B到70B参数不等)、通过命令行运行模型以及通过API将模型接入应用。文章强调无需深厚技术背景,30分钟即可完成部署,并提供了常见问题的解决方案,适合初学者快速上手本地大模型应用开发。
2025-11-19 16:09:49
1513
原创 Windows下部署本地知识库全教程:RAGFlow+Ollama打造专属AI助手
本文详细介绍了在Windows系统下使用RAGFlow和Ollama部署本地知识库的全过程,包括系统环境配置、模型下载与管理、知识库创建与参数设置、对话助手开发与分享等步骤。通过本教程,读者可以搭建完全本地化或半本地化的知识库系统,实现基于自有数据的智能问答,无需依赖云端API即可享受大模型带来的便利,同时保护数据隐私。文章提供了详细的操作指导和参数配置建议,适合有一定编程基础的开发者学习实践。
2025-11-17 13:40:02
1203
原创 深入理解动态拓扑:Bridgic框架编排机制全解析
文章详细介绍了Bridgic框架中的三种编排方式:静态编排、动态编排和自主编排,特别强调了动态拓扑在LLM时代的重要性。通过代码示例展示了如何实现动态拓扑编排,包括动态增删worker和调整依赖关系。框架基于动态有向图(DDG)和异步编程机制,支持从静态到高度动态的各种编排模式,为AI Agent开发提供了强大的基础架构。
2025-11-17 11:56:08
592
原创 超越Prompt工程:大模型交互结构的灵魂三要素,让你的Agent真正“活起来“
大模型Agent的核心在于Context Engineering而非Prompt工程。真正的"活起来"需要构建状态理解、情境把握和持续学习三大能力。Session与Memory的区分、长上下文管理、记忆写入机制及ETL流水线是关键。完善的记忆系统让Agent能像个体一样持续存在、成长和演化,实现真正的个性化与长期存在性。
2025-11-17 11:54:14
850
原创 DeepResearch企业级AI架构详解:让大模型从实验室走进生产线,成为企业真正的生产力工具
阿里通义DeepResearch构建了企业级AI三层架构:任务规划层、任务执行层和知识与工具层,通过多智能体协作、全流程工具链和动态知识库,使大模型从"实验室玩具"进化为"业务伙伴"。该架构实现从线性执行到迭代优化、从单一模型到垂直融合、从技术驱动到业务友好的转变,提供"预热-启动-优化-规模化"的企业落地路径,让AI真正成为可落地的生产力工具。
2025-11-13 11:38:51
357
原创 揭秘AI Agent成功落地:技术不是问题,人和流程才是关键
本文基于MMC报告,揭示企业AI Agent落地的三大障碍:无法嵌入原有工作流(60%)、员工抵触(50%)和数据隐私安全(50%)。文章提出从准确率和自主性两个维度评估AI Agent,将其分为三类,并总结成功落地的三大秘籍:从小事着手、提供陪跑式服务、精准定位。强调AI Agent落地关键在于流程整合、员工信任和价值证明,而非单纯技术能力。
2025-11-13 11:36:54
807
原创 AI Agent生态中的7种流行协议详解:构建高效AI系统的关键
本文介绍AI Agent生态中的7种流行协议,包括Anthropic MCP、Google A2A等,详述其核心机制与应用场景。这些协议涵盖Agent与LLM通信、Agent间协作、企业级安全、去中心化市场、多任务协同及UI交互等多个方面。随着AI模型发展,Agent协议将更加标准化和灵活,支持跨平台生态系统构建,对开发复杂AI系统至关重要。
2025-11-13 11:35:56
402
原创 零基础手把手:基于大模型实现自然语言转SQL数据分析智能体
文章介绍了如何构建自然语言转SQL的数据分析智能体,使用Qwen-Text2SQL模型将自然语言查询转化为可执行SQL,结合DeepSeek-R1作为智能体大脑,通过langchain框架搭建AI Agent,并利用Rag知识库优化提示词。该智能体能将非技术人员的自然语言需求转化为SQL查询,降低数据分析门槛,提升效率,让更多人能够利用数据进行决策,释放数据价值。
2025-11-12 11:12:35
1202
原创 AI Agent九大设计模式完全指南:从入门到精通的实战解析
文章系统解析AI Agent九大设计模式,详述ReAct、Plan-and-Solve等模式的核心机制与适用场景。提供模式演进全景图与选型策略,强调根据业务需求选择合适模式,避免为简单任务强加复杂架构。未来趋势包括模式联邦化、硬件协同优化和伦理约束层,帮助开发者精准匹配场景,提升Agent落地效能。
2025-11-12 11:10:19
832
原创 一文读懂微软Agent Framework:大模型多智能体系统开发的开源利器
微软Agent Framework是一个开源SDK和运行时,融合了Semantic Kernel的企业级基础与AutoGen的创新编排能力,帮助开发者构建复杂多智能体系统。它支持开放标准(MCP、A2A、OpenAPI),提供多种编排模式,具备可观测性、安全合规等企业级特性,让开发者无需在实验性和生产性之间做取舍。作为微软智能体开发栈核心,未来将与Microsoft 35 Agents SDK和Azure AI Foundry深度集成,打通从原型到生产的全链路。
2025-11-12 11:08:11
503
原创 小白也能懂!RAG到REFRAG:大模型知识检索技术进化论
本文介绍了大型语言模型的知识静态性问题及检索增强生成(RAG)技术作为解决方案。传统RAG通过检索外部知识增强模型能力,但存在效率瓶颈。REFRAG技术通过智能压缩和过滤信息,将文本转化为高密度向量并选择性保留关键原文,显著提高处理速度(可达30倍)、降低成本,同时保持回答质量,实现大模型知识获取的效率革命。
2025-11-10 13:35:59
888
原创 ReAct智能系统构建:LangGraph+MCP实现工业级供应链解决方案
本文详细介绍了基于ReAct模式、LangGraph工作流和MCP协议的工业级供应链管理智能体系统实现。系统采用本地化部署策略,支持CLI和Web双界面,具有模块化设计和高性能异步处理能力。文章展示了核心组件包括状态管理机制、工具基类设计以及优化的ReAct执行循环,同时提供了React前端实现和RESTful API设计。完整源码可通过知识星球获取,适合开发者学习参考大模型应用落地实践。
2025-11-10 13:34:54
1016
原创 AI Agent企业落地真相:技术不是最大障碍,人机协作才是关键
文章指出企业部署AI Agent的最大障碍是"人"和"流程"问题,而非技术。三大难题是工作流集成、员工抵触和数据安全。成功的AI Agent需要平衡准确率和自主性,通过"Think Small"切入、提供"保姆式"服务和准确定位来落地。AI Agent已从创新预算转向业务线预算,但收费模式仍在探索中。最终,AI Agent需要像情商高的真人一样,洞察用户需求并默默解决问题。
2025-11-08 11:23:45
1089
原创 如何“养“出能创造价值的大模型Agent:程序员必读的落地指南
AI智能体不是一次性开发就能落地的,而是需要像培养新员工一样在真实场景中"养"出来。成功的Agent背后都有完善的反馈系统,通过低成本反馈机制、持续场景训练和自进化框架,让AI在业务中不断犯错、被纠正、再尝试,逐渐具备判断力。AI落地的关键不在于技术本身,而在于构建场景内的反馈生态,让AI在与人类互动中进化。真正的竞争力在于谁能持续"养好"Agent,使其成为能创造价值的智能员工。
2025-11-08 11:19:15
571
原创 RAG系统进化论从Naive到生产级,打造高效检索增强应用全攻略
本文详细介绍了RAG系统从基础到生产级的进化路径,重点解析了Pre-Retrieval和Retrieval阶段的优化方法。包括知识库数据处理策略(内外部数据增强)、多种分块与索引技术、用户Query处理方式,以及各类检索策略(基础、迭代、递归、条件式和自适应)。通过系统化梳理,帮助读者理解如何构建高效、可靠的RAG系统,解决实际应用中的复杂问题。
2025-11-07 10:31:12
927
原创 RAG系统的灵魂:Query理解模块深度解析,小白也能掌握的大模型技术
本文详细介绍了RAG系统中的Query理解模块,它是连接用户输入与检索生成的关键环节。作为系统的"调度员"和"翻译官",该模块通过意图识别、实体提取、Query改写与扩展、检索路由四大核心任务,将模糊的自然语言问题转化为系统可处理的标准化查询。文章探讨了各任务的技术实现、常见挑战及优化策略,强调了Query理解对整个RAG系统性能的决定性影响,并提供了面试答题模板,帮助开发者构建更精准、高效的RAG系统。
2025-11-07 10:29:25
1030
原创 多Agent协作入门:基于A2A协议的Agent通信
多Agent协作入门:基于A2A协议的Agent通信我们了解了A2A协议的基本概念,还通过A2A组件实现了一个Hello World的Demo,有了一个快速的感性认识。这一篇,我们来了解下A2A协议的三大角色 和 四大对象,有了这些基础的认知会对我们全面认识A2A有所帮助。
2025-11-05 11:20:53
338
原创 5 种 AI Agent 工具协作设计模式
工具协作是AI Agent突破自身能力边界的核心机制,LLM本身存在实时数据缺失、计算精度不足、物理交互空白等短板,而工具协作通过将LLM与外部工具关联,让Agent具备实时信息检索、精准计算、自动化操作、物理世界交互等能力。
2025-11-05 11:19:34
786
原创 大模型五大场景评估基准全解析:从医疗到Agentic的实战指南
文章研究了大模型在医疗、金融、法律、多模态和agentic五大场景中的评估基准。通过分析24个代表性benchmark,提取了各场景的评估任务和指标架构,包括医疗问答中的准确率与事实性评估,金融领域的信息提取与推理能力测试,法律推理的多维度评估,多模态理解与生成能力测试,以及agentic场景的决策与工具使用能力评估。这些评估体系为大模型在各领域的应用提供了标准化的评测方法。
2025-11-05 10:13:24
829
原创 一文读懂BERT与GPT:AI大模型的两种进化路径与实战应用
本文深入对比了NLP领域的两大重要模型BERT和GPT。BERT采用双向Transformer架构,擅长深度理解文本,适合搜索引擎、情感分析等任务;GPT使用单向Transformer,专注于连续生成文本,擅长文本创作、对话和代码生成。两者基于相同架构但进化方向不同,各有优势场景,现代模型正尝试融合两者的优点,推动AI语言处理能力不断进步。
2025-11-05 10:10:27
779
原创 大模型面试加分项:微调数据集构建详解
文章系统介绍了大模型专业领域微调数据集准备的两阶段流程:数据处理(文档选择、清洗切分、问题生成)和数据验证优化(多轮迭代、专家审核)。强调了数据质量比数量更重要,并解答了微调数据量、工业环境创建方法及强化学习数据构建等热点问题,为面试提供了实用回答框架。
2025-11-04 18:13:39
910
原创 大模型与AI Agent:从语言专家到行动执行者的进化之路
本文深入解析了大模型与AI Agent的本质区别与协同关系。大模型作为"语言专家",擅长文本理解与生成;AI Agent作为"行动执行者",能自主决策与任务落地。二者协同工作,大模型在Agent中担任意图解析、决策辅助和交互接口角色,实现从语言理解到行动执行的完整闭环,为企业数字化转型提供强大支持。
2025-11-04 18:12:37
738
原创 LangChain提出Agent工程化的新分层(Agent harness)
Vtrivedy提到一个关键点:好的Agent构建是迭代进化,你不能在没有v0.1版本的情况下进行迭代。开箱即用的完整解决方案能让你的Agent快速进入内部团队手中,然后持续迭代改进。他预测在接下来的6个月内,大多数面向用户的AI产品将使用现有的Agent基座作为其核心用户交互模式。他设想了一个"开放基座生态系统"的未来——开发者创建定制基座,用户插入其中进行进一步编辑或作为产品使用。
2025-10-30 10:27:23
879
原创 一文搞懂大模型核心:Embedding技术详解,从原理到实战应用
Embedding是将符号转化为低维稠密向量的技术,能压缩数据并保留语义相似性。在传统深度学习中,它应用于词向量、推荐系统和计算机视觉;在大模型时代,它是语言模型、多模态模型和生成式模型的基础,使机器能理解词语、图像等不同模态数据的语义关系,是实现语义搜索、图文匹配等任务的关键技术。
2025-10-30 10:25:43
850
原创 LLM为什么需要向量数据库?大模型开发者必看
大语言模型(LLM)基于静态训练数据,无法获取新知识且上下文窗口有限。向量数据库通过RAG(检索增强生成)技术,将信息编码为向量存储,当LLM需要时进行相似性搜索,检索相关上下文并增强提示。这种方法无需重新训练模型,就能动态更新模型知识,减少幻觉,提高响应的准确性和可靠性,使LLM能够利用最新信息生成更高质量的回答。
2025-10-27 13:42:43
955
原创 LLM革命:从专业模型调试到自然语言交互,AI开发门槛的巨大变迁
Claude Code通过三个核心设计实现高效AI Agent:上下文强化解决LLM"遗忘"风险,并行工具调用提升效率,反思机制确保操作安全。其设计理念是针对具体业务的极致适配,这些经验模式是从无数次实践中总结出来的,为AI Agent开发提供了宝贵思路。
2025-10-27 13:41:32
650
原创 解锁大模型真正价值:RAG技术深度解析,小白也能学会
文章介绍了解决大模型"幻觉"问题的RAG技术。RAG结合生成式大模型与实时信息检索,通过外部知识补充提高内容准确性。文章通过比喻和实例解释RAG工作原理,比较了RAG与模型微调的适用场景,介绍了RAG基本架构,认为RAG是增强大模型生成的重要技术,特别适合知识更新频繁的场景。
2025-10-24 11:37:49
1001
原创 Meta超级智能实验室REFRAG:RAG性能飞跃
Meta超级智能实验室提出的REFRAG方法通过压缩、感知与选择、选择性扩展三步法优化RAG流程。该方法将检索到的文本压缩为向量表示,仅选择关键块还原为原文嵌入,大幅减少输入token数量。REFRAG使首次生成延迟缩短30.85倍,上下文长度提升16倍,token使用减少2-4倍,同时保持几乎无精度损失。开源实现提供了从索引构建到训练与生成的完整流程,适用于客服问答、长文总结等场景,是RAG领域的重要突破。
2025-10-24 11:36:46
741
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅