- 博客(941)
- 收藏
- 关注
原创 从零开始实战:基于Dify平台的目标检测模型训练与业务落地全流程解析
本文基于Dify智能体开发平台,详细介绍了目标检测小模型从训练到业务落地的全流程。通过配置数据录入、上传样本、标注目标位置、训练模型等步骤,开发出能够识别"黄鹤楼"和"万宝路"盒子的智能体。文章展示了如何搭建HTTP节点调用模型,并通过LLM节点汇总检测结果,最终实现了图片中目标物品的自动识别与计数,验证了目标检测技术在实际业务中的应用价值。
2025-12-05 18:45:02
556
原创 程序员必备:本地大模型部署与调用实战教程
文章介绍了在本地环境部署大语言模型的解决方案,重点讲解了Ollama工具的使用方法,包括命令行调用、HTTP API调用和SDK调用三种方式。作者通过测试多个本地模型在JSON输出方面的表现,发现deepseek-r1:14b表现最佳。文章指出,本地部署可根据硬件条件选择不同参数量的模型,8B参数量模型已能实现不错的业务功能,为数据敏感场景提供了可行方案。
2025-12-05 18:43:19
563
原创 大语言模型三大低成本微调方法详解:从LoRA到PortLLM的实用指南
本文介绍三种大语言模型高效微调方法:LoRA通过低秩分解仅更新少量参数(0.01%-1%);Q-LoRA结合4位量化等技术实现单卡微调650亿参数模型;PortLLM提出"模型补丁"实现增量移植。这些方法显著降低微调成本,为医疗、法律等领域提供低成本、高效率的模型微调解决方案。
2025-11-29 11:33:11
1140
原创 从入门到精通:大模型智能体架构实战学习路径
这篇文章提供了结构化的AI智能体架构学习路径,涵盖17种从基础到高级的架构,包含理论解释和可运行的Jupyter Notebook实现。学习路径分为五部分:基础模式、多智能体协作、高级记忆与推理、安全可靠性、学习与适应。内容涵盖反思、工具使用、ReAct、规划、多智能体系统等,应用于金融、编程、医疗等实际场景,帮助开发者掌握构建智能系统的艺术。
2025-11-29 11:30:48
867
原创 AI进阶必备:掌握Function Calling与RAG,让你的模型不只是聊天工具
文章介绍大模型两大核心能力:Function Calling教AI调用外部工具执行任务,RAG让AI基于最新知识库回答问题避免"幻觉"。两者协同工作,使AI从聊天工具转变为能查询数据、分析文档、执行流程的智能助手。通过HR场景示例,展示技术如何提升AI实用价值,帮助开发者解锁大模型实战能力。
2025-11-28 14:36:29
314
原创 RAG架构深度解析,彻底解决大模型幻觉与知识边界难题
RAG通过架构重构解决了大模型的幻觉生成与知识边界模糊问题。传统大模型知识时效性差,且概率补全机制必然导致幻觉。RAG将知识外置于动态更新的向量数据库,使模型从静态知识容器转变为动态推理代理,实现知识存储与推理生成分离。混合检索策略和条件化生成机制确保了回答的准确性,同时支持拒答策略,构建了可持续演进的知识生态系统,让AI越用越聪明而非越用越过时。
2025-11-28 14:35:35
522
原创 大语言模型微调技术详解:从PEFT到ChatGPT实战指南
文章详细介绍了大语言模型的微调策略,包括全面微调和参数高效微调两大类,重点讲解了前缀调优、提示调优、P-Tuning和LoRA等参数高效微调方法。同时,文章还介绍了基于ChatGPT的三种微调方式:Fine-Tuning UI、CLI命令和API,帮助开发者针对特定任务优化模型性能,提升应用效果。
2025-11-27 14:00:25
790
原创 Agentic RAG实战指南:让大模型不只是回答问题,而是完成任务
本文探讨了传统RAG技术在企业大模型应用中的局限性,提出了Agentic RAG解决方案。Agentic RAG融合了RAG检索、Agent规划、工具执行和记忆能力,使大模型从单纯回答问题升级为执行复杂任务。文章详细对比了两种技术的差异,提供了企业实施Agentic RAG的具体步骤和未来发展趋势,指出这是大模型工程化的必然路线。
2025-11-27 13:59:22
422
原创 构建AI Agent前必看的5个关键问题
文章指出构建AI Agent前管理层需思考五个核心问题:一是明确解决具体动作而非模糊愿景;二是定义可量化的成功标准;三是确保数据质量、安全权限与审计回滚能力;四是明确上线后的责任人与管理机制;五是选择合适的实施节奏。作者强调,只有对这五个问题有清晰统一的答案,才能避免Agent项目高开低走,提高成功率。
2025-11-26 14:22:06
687
原创 企业级RAG系统实战:55万字技术博客精华,解决2万+文档检索难题
文章分享了在监管行业构建企业级RAG系统的实战经验,强调文档质量检测、层级化分块、混合检索和置信度驱动路由等工程要点的重要性。作者指出企业RAG更多是工程而非机器学习,元数据架构比embedding模型更重要,并推荐使用开源模型如Qwen以满足成本和数据主权需求。文章提供了四个核心工程要点的代码示例和评论区精华问答。
2025-11-26 14:20:53
341
原创 大模型温度参数详解:从呆板到创意,一文掌握AI回答的艺术
本文解析大模型温度参数(0-2)如何控制AI回答的创造性与确定性。低温(0-0.3)提供精准稳定答案,适合查资料;中温(0.4-0.7)平衡准确与自然,适合日常交流;高温(0.8-2.0)激发创意,适合故事创作。作者通过实例对比不同温度下的回答差异,提醒新手避免"温度越高越聪明"等误区,强调根据场景选择合适温度才能让AI输出"对味"。
2025-11-25 15:35:25
668
原创 从零开始掌握Dify与LangChain v1.0集成:5步构建企业级RAG应用全攻略
本文详细介绍了如何通过五个关键步骤掌握Dify与LangChain v1.0的集成技术,构建企业级RAG应用。文章解析了Dify的核心功能(可视化工作流、模型网关、RAG引擎、Agent框架)和LangChain v1.0的新特性(统一Agent抽象、中间件机制、标准化内容块)。从环境配置到API调用,从实战案例到性能优化,再到常见问题解决方案,为开发者提供了全面的集成指南,帮助企业快速构建智能问答系统,释放AI生产力。
2025-11-25 15:34:16
541
原创 告别玄学!大模型官方提示词工程完全指南:Gemini 3.0 vs GPT 5.1 vs Claude 4.5全对比
本文对比分析Gemini、GPT-5.1和Claude三大模型官方提示词指南。Gemini提供通用提示工程教科书,强调清晰指令和few-shot示例;GPT-5.1专注Agent与代码,注重系统prompt和工具使用;Claude聚焦长任务与工作流,强调状态管理。三家共识是提示需清晰具体、提供示例和上下文、可迭代优化。普通用户可参考Gemini,工程师开发Agent系统则适合GPT-5.1或Claude的指南。提示词正从"魔法咒语"转变为"产品配置"。
2025-11-24 17:54:20
753
原创 AI记忆大突破:从备忘录到智能战术手册,小白也能看懂的AI进化史
文章介绍了AI记忆技术的进化历程,从"动态备忘录"技术使AI准确率从10%提升至99%,到解决"上下文崩溃"问题的"Agentic Context Engineering"框架。该技术让AI从存储"事实"升级为存储"方法论",并通过增量更新和成长-精炼机制实现自我进化。研究证明,先进的记忆框架能使开源模型挑战顶级AI,标志着AI从被动响应工具向能积累经验、自我迭代的学习系统转变。
2025-11-24 17:53:07
994
原创 Agent本质与四象限分类,大模型开发者必看指南
文章介绍了Agent的本质由Workflow(工作流)和Context(上下文)两个核心变量决定,并提出了Agent四象限法则:1)高确定性类似传统RPA;2)流程固定但输入多变需语义理解;3)输入清晰但路径多样需自主规划;4)双重不确定需同时理解语境和规划流程。Agent定义为在目标导向下基于上下文自主决策并行动的智能体系统,既具备流程执行能力,又拥有内容理解智慧,能根据环境反馈不断优化自身。
2025-11-22 18:17:08
732
原创 AI大模型开发核心技术栈:2025年开发者必备指南
文章系统介绍了2025年AI大模型开发核心技术栈,包括基础框架(PyTorch、TensorFlow等)、训练微调(分布式训练、PEFT)、推理优化(FlashAttention、PagedAttention)及AI编程工具。技术呈现分层化、模块化和民主化趋势,降低AI开发门槛,赋予更多人创造智能的能力,帮助开发者将创意转化为现实,是AI开发者必备的"军火库"。
2025-11-22 18:16:20
1103
原创 RAGFlow深度评测:AI知识库的终极形态,小白也能上手
本文详细评测了RAGFlow AI知识库项目,认为其以"降维打击"姿态超越其他工具。五大核心优势包括:强大的文档识别能力处理扫描件、精准灵活的智能分块策略、颠覆性的数据增强功能、多路召回与精准重排的搜索系统,以及强大的API集成能力。尽管配置要求高且安装有门槛,但仍被作者视为理想知识库的最终形态,并计划分享简化版安装教程。
2025-11-21 18:51:37
1079
原创 AI落地避坑指南:从数据基建到AI Native的渐进式转型
文章指出企业AI落地应避免盲目跟风,采取渐进式方法。企业需先完善数据基建(BI),再引入AI应用。应基于"小切口、先聚焦单一场景"的思路,解决实际业务问题,通过高价值场景切入,逐步推广。OpenAI的"5A框架"提供了明确路径,企业需从业务目标出发,结合"业务价值度"与"落地可行性"双维评估,小步快跑,分步建设,实现从工具到业务伙伴的转变。
2025-11-21 18:50:39
1048
原创 GraphRAG实战指南,突破传统RAG局限,实现大模型深度洞察
本文剖析传统RAG技术在处理复杂关系和全局性问题时的局限性,介绍GraphRAG如何通过知识图谱将非结构化数据转化为结构化认知,实现从"搜索数据"到"推理洞察"的质变。GraphRAG实现了多跳推理、全局总结和可解释性三大技术跨越,但也面临构建成本高、图谱质量维护等挑战,未来将向Vector+Graph的混合检索模式发展。
2025-11-21 18:49:39
907
原创 AI工程实践指南:让大模型从“能说“到“能做“的技术栈全解析
本文系统解析了AI工程如何将大语言模型从"能说"的对话工具转变为"能做"的数字生产力。详细介绍了提示词工程、RAG、函数调用、MCP和Agent等关键技术栈,并针对大模型面临的推理延迟、幻觉生成、上下文记忆等挑战提出解决方案。通过这些技术,AI系统能够理解目标、规划路径、执行任务,实现从对话到行动的进化。
2025-11-20 11:56:12
785
原创 2024年大模型选型终极指南:SLM与LLM如何为企业AI赋能
本文全面解析了小型语言模型(SLM)与大型语言模型(LLM)的定义、差异及适用场景。SLM凭借资源需求低、部署灵活、领域专精等优势,在垂直领域、边缘部署和成本控制方面表现突出;LLM则在通用场景和复杂任务中更具优势。文章通过实战案例和选型指南,帮助开发者根据业务需求精准匹配模型,实现AI技术价值最大化,并指出SLM将成为国内中小企业AI转型的首选。
2025-11-20 11:54:50
1320
原创 大模型微调实战:五种方法详解+代码实现
本文详细介绍大模型微调的五种主流方法:全量微调、Adapter、LoRA/QLoRA、前缀微调和指令微调。涵盖各方法原理、代码实现及优缺点分析。LoRA/QLoRA因其高效性成为首选,全量微调适合追求极致性能场景,前缀微调适合资源受限情况,指令微调是打造对话机器人的必经之路。文章提供方法选择指南,帮助开发者根据需求选择最合适的微调策略。
2025-11-20 11:53:42
840
原创 从235B到32B:大模型蒸馏实战指南,小白也能上手的模型优化收藏秘籍
本文介绍大模型在实际业务中的应用,重点讲解模型蒸馏技术。通过"教师-学生"架构将235B大模型知识迁移至32B小模型,解决大模型部署中的"性能-效率"矛盾。微调本质是冻结原始参数,训练额外小参数,使小模型具备大模型能力但限于特定场景,让小模型在保持低资源需求的同时继承大模型性能。
2025-11-19 16:45:36
970
原创 大模型智能体设计模式实战指南:从提示链到架构设计
这篇文章介绍了提示链(Prompt Chaining)设计模式,解释了如何将复杂AI任务拆分为多步流水线,每步由专门提示负责。文章指出单一超长提示词会导致输出混乱、关键信息丢失和调试困难,而提示链模式通过结构化输出和分步处理解决了这些问题。作者提供了使用LangChain的代码示例,并分享了先画流程再写提示、中间结果结构化等实用心法,帮助开发者构建更可控、可维护的AI Agent系统。
2025-11-19 16:40:51
1002
原创 大模型本地部署实战:DeepSeek-R1+Page Assist联网搜索全流程详解
文章详细介绍了如何在本地使用Ollama部署DeepSeek-R1大模型,并通过Chrome插件Page Assist实现联网搜索功能。由于DeepSeek模型知识截止到2023年12月,无法回答最新信息,而Page Assist作为独立运行的浏览器扩展,可先通过搜索引擎实时查询获取最新信息,然后将这些信息与用户问题一起发送给本地DeepSeek模型进行回答。文章提供了完整的安装、配置和设置步骤,帮助读者实现大模型的本地化使用和实时信息获取能力。
2025-11-19 16:39:21
633
原创 MoE大模型核心技术:负载均衡与视觉应用详解!
本文详细介绍了混合专家模型(MoE)的负载均衡技术,包括KeepTopK策略、辅助损失函数和专家容量限制等方法,以及在视觉模型中的应用。通过稀疏激活机制,MoE实现了"大模型能力+小模型效率"的突破,以Mixtral 8x7B为例解释了活动参数与稀疏参数的区别,探讨了MoE如何解决大模型规模与效率的矛盾,并展望了未来研究方向。
2025-11-17 13:56:03
693
原创 小白入门:大模型RAG系统中的“召回“与“搜索“,收藏这篇就够了!
文章解释了在RAG领域,"召回"比"搜索"更专业的原因:形象地描述了从海量知识库中调取相关信息的过程,并强调这是系统内部的技术操作。文章介绍了召回率和精确率两个核心评估指标,并通过律师准备官司的比喻解释了RAG系统的召回、重排序和生成三个阶段。最后指出"召回"在技术场景中特指系统从知识库调取信息的技术环节,与RAG的"检索(R)"阶段相对应。
2025-11-17 13:53:32
1197
原创 RAG+Agent:让检索不再是查字典,开启智能探索之旅
本文介绍了Agentic RAG如何通过引入Agent机制,使传统RAG从被动的"查字典"式检索升级为主动的智能探索。详细阐述了Microsoft Agent Framework如何通过AIContextProvider、Function Tools和Workflow等特性,实现自主决策、迭代优化和多Agent协作的智能检索流程。通过三种实现模式和实战案例,展示了Agentic RAG在提高检索准确性、完整性和适应性方面的优势,并探讨了未来发展方向。
2025-11-17 13:51:39
923
原创 CapRL:创新图像描述评估方法,从半开放到封闭评估,提升多模态模型性能
CapRL提出创新方法,将半开放的图像描述评估转为封闭式评估,即通过测试描述能否帮助无视觉能力的LLM正确回答相关问题来评估质量。该方法使用RLVR范式训练,构建高质量图文问答对数据集,实验证明能显著提升图像描述质量,且将其数据用于预训练可有效提升多模态大模型性能。
2025-11-13 11:55:22
390
原创 大模型开发从入门到精通:选型方法论与四大核心法则详解
本文系统介绍大模型选型与开发知识,第一部分解析如何根据任务需求选择合适模型,包括主流厂商、模型类型、能力维度和尺寸匹配;第二部分阐述四大核心法则:模型无记忆(多轮对话依赖上下文传递)、指令有层级(Platform>System>User)、多模态输入皆Token化、官方文档是最可靠信息源。掌握这些原理,能帮助产品经理和开发者正确构建大模型应用。
2025-11-13 11:54:29
1042
原创 AI Agent开发中MCP与API的完美搭配:避免滥用陷阱,提升开发效率
MCP是AI与外部工具交互的"通用适配器",与API不是替代关系而是互补。MCP擅长灵活决策和自主工具发现,适合AI主导场景;API则提供高效、可控的确定性执行。开发中应避免盲目滥用MCP处理简单任务或复杂场景,而应根据需求合理搭配:用MCP搭建决策层,API负责执行层,实现开发效率与性能的平衡。
2025-11-13 11:52:52
368
原创 小白也能懂!PPO算法与大模型RLHF实现全攻略
本文详细介绍了PPO算法及其在RLHF中的应用。从策略梯度基础讲起,解释了REINFORCE和TD方法的优缺点,深入探讨了PPO的核心技术——重要性采样和GAE优势估计。通过理论推导和伪代码实现,展示了PPO如何平衡策略更新与稳定性,以及在大模型训练中的应用流程。文章采用初学者友好的白话文风格,帮助读者理解这一复杂算法。
2025-11-12 11:40:41
880
原创 AI Agent小白入门指南:从概念到实现,一文搞懂智能体工作原理
AI Agent是能理解指令、拆解任务并自动调用的AI系统。主要实现路径包括无障碍模式(存在隐私问题)、云手机模式(解决资源冲突但隐私仍存)、开放API接入(安全但工作量大)。未来AI Agent将主要生长在设备端,实现跨生态互联互通,通过本地化提升隐私保护和效率,最终成为无缝协作的智能生活助手。
2025-11-12 11:38:11
1188
原创 大模型Token限制终极解决方案:5种压缩技术全解析
文章探讨大模型处理长文本时的Token限制问题,特别是在司法文书处理场景下的挑战。详细解析了五种主流压缩技术:滑动窗口、摘要提取、向量化压缩、图结构压缩和混合策略,并针对法律语言精确性、证据链完整性、多模态处理和隐私保护等核心挑战提出了解决方案。这些技术已在司法类案推送等系统中成功应用,显著提升了AI处理超长文档的能力。
2025-11-12 11:37:09
1062
原创 代码执行+MCP协议,如何让AI Agent效率提升98.7%?
Anthropic提出的代码执行与MCP协议结合方案解决了AI Agent面临的Token效率瓶颈。通过让Agent编写代码而非直接调用工具,结合文件系统实现渐进式工具发现,可将Token使用量降低98.7。该方法实现了按需加载工具、数据在执行环境中处理、循环本地执行等优势,同时保护隐私并支持状态持久化,为AI Agent大规模商业化应用提供了技术支撑。
2025-11-10 13:54:16
874
原创 深度解析:为什么AI Agent都是工作流?大模型开发指南
文章探讨了AI Agent为何大多沦为工作流而非完全自主系统,指出这是由大模型的可靠性、准确性、执行能力和成本边界决定的。工作流通过预设流程解决了可控性、准确性和成本问题,但也存在灵活性不足等局限。设计好的工作流Agent需考虑任务拆解、模块化设计、状态管理等要素。尽管当前受限,但随着技术进步,工作流Agent将逐步向更智能方向发展,创造实际价值。
2025-11-10 13:52:45
974
原创 从零开始搭建本地RAG系统:LangChain+Qwen3+BGE-M3实战指南
本文详细介绍了如何使用LangChain框架整合Qwen3大模型与BGE-M3嵌入模型,搭建本地运行的端到端RAG系统。通过4位量化技术降低硬件门槛至8GB显存,解决大模型知识时效性差、个性化能力弱及"幻觉"问题,实现数据安全的私有化问答系统。文章提供了从环境准备到代码实现的完整步骤,适合新手学习落地。
2025-11-08 11:35:54
1092
原创 AI Agent框架选型指南:为什么我们开发了Bridgic这个动态拓扑框架
文章介绍了作者团队开发的Bridgic AI智能体框架,解决了现有AI框架代码臃肿、黑盒化的问题。Bridgic采用动态有向图(DDG)架构,支持worker和automa两种核心概念,实现了静态编排、程序动态编排和自主编排的统一。该框架强调模块化、组件化、参数绑定和高度可定制化,为AI Agent开发提供了灵活且可控的解决方案,适合原型开发、生产环境应用和学习研究。
2025-11-08 11:35:00
791
原创 从零开始构建企业级AI Agent:多方法架构实战指南
文章指出,企业级AI应用不应仅依赖LLM,而需结合工作流平台、决策规则系统、机器学习及数据技术等多方法架构。通过贷款申请案例,展示了聊天、编排、政策、工作流、决策、文档、辅助和解释八类智能体的协作机制,确保系统在提供流畅用户体验的同时,保证业务可靠性、一致性和合规性,是企业级AI产品设计的最佳实践。
2025-11-07 14:49:32
1233
原创 LangGraph智能体进阶:长短期记忆管理详解与实战应用
本文详解LangGraph长短期记忆管理机制,通过InMemorySaver/PostgresSaver实现会话级对话跟踪,使用InMemoryStore/PostgresStore构建跨会话知识体系,支持语义检索等高级功能。同时介绍如何通过继承BaseCheckpointSaver和BaseStore实现自定义存储扩展,帮助开发者打造具有持续学习能力的AI Agent,提升用户体验和智能度。
2025-11-07 14:46:38
753
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅