- 博客(218)
- 收藏
- 关注
原创 大模型杀不死产品经理,但未来我们可能要做“产品界的 OnlyFans”
这是一篇合辑文,近期跟很多朋友交流了下大模型应用的感受,也有不少观点碰撞,其中很多内容实际上一脉同源,于是整理一下。这篇文章也不讲究什么行文逻辑了,由观点引出观点,用臆测评价臆测,主打一个自己说得舒坦。明确一个贯穿全文的观点:我越来越相信大模型无法取代产品经理,甚至觉得产品经理的下一波春天要到来了。
2025-12-23 14:13:15
849
原创 告别AI黑话!程序员入门大模型的必备术语详解,建议收藏
本文以通俗易懂的方式解释了AI和大模型领域的15个核心术语,包括序列化、反序列化、解析、解析器、块、词元、向量、嵌入、检索增强生成(RAG)、提示词、温度、TOP P、LLM、预训练和微调等。作者旨在帮助初学者理解这些"行业黑话",消除学习障碍,避免被专业术语吓退。这些术语是理解大模型工作原理的基础,掌握它们有助于更好地学习和应用AI技术。
2025-12-23 14:11:57
509
原创 企业级AI Agent的困境与破局之道,小白也能快速上手!
本文探讨企业级AI Agent面临的困境,包括模型本身问题(不一致、不真实、不及时)和工程化落地难度被低估。同时指出数据安全、合规审计是企业级应用的关键挑战。文章提出破局之道是需要工程化能力完备、与业务系统深度集成、具备企业级安全保障的Agent平台,并以金蝶苍穹Agent平台为例,介绍了其内置业务模板、开放技术标准和企业级安全等解决方案。
2025-12-20 09:49:32
927
原创 AI大模型在反垄断法中的妙用:从可乐果汁案看市场界定与模型对比
该文对比测试了国内主流AI大模型在反垄断法相关市场界定问题上的表现,发现这些模型可提供分析框架、提高信息检索效率,通过丰富关键词和细化提问可获得更科学的分析结果。虽然存在不足,但通过比较不同模型结果可"取长补短"。AI大模型的使用有助于降低举报或起诉滥用市场支配地位行为的难度,对推动反垄断法实践发展有积极意义。
2025-12-20 09:48:35
570
原创 Open Notebook:打造私有化AI助手,16种模型本地部署教程
本文介绍了Google的NotebookLM及其开源替代品Open Notebook。该工具支持16种AI模型,可在本地部署,保障数据隐私,支持多种格式导入,具备灵活权限控制和多角色语音功能。文章提供详细Docker部署方法,对比两个工具的优缺点,为追求数据安全和离线运行需求的用户提供了理想选择。
2025-12-19 19:15:11
1413
原创 谷歌开源computer-use-preview:AI Agent如何操控电脑?架构设计与实战解析
文章介绍谷歌开源的computer-use-preview项目,这是一个让AI直接操控电脑的Agent框架。它采用三层架构:BrowserAgent智能层、Computer接口抽象层和Playwright/Browserbase执行层。主要技术特点包括坐标归一化、截图滑动窗口和新页面劫持。该框架成本较高(每步约$0.002+),速度较慢(单步3-6秒),目前仅适配Chrome,面临页面加载完整性、弹窗广告等挑战。
2025-12-19 19:14:22
564
原创 GraphRAG深度解析:解锁大模型推理能力,必学技术收藏
本文探讨了传统RAG架构在大模型应用中的局限性,特别是在处理复杂关系和全局性问题上的瓶颈。GraphRAG通过整合知识图谱与RAG技术,将非结构化数据转化为结构化认知,实现从"搜索数据"到"推理洞察"的质变。GraphRAG具备多跳推理、全局总结和可解释性三大优势,同时也面临构建成本、图谱维护等挑战。未来大模型应用将向Vector+Graph的混合模式发展,为用户提供更智能、更全面的AI服务。
2025-12-18 17:36:20
1020
原创 提示词工程完全指南:从原理到实战,让你精准驾驭大模型
本文系统介绍了提示词工程的原理、技巧与实战应用,包括6大核心原则(明确目标、补充上下文、提供示例、设定角色、规范格式、适配沟通风格)和进阶技巧(分隔符使用、思维链、输出控制等),针对不同模型提供适配策略,结合网络安全等场景案例解析设计方法,帮助用户提升与大模型交互效率,降低使用门槛,实现精准引导模型输出高质量结果。
2025-12-18 17:35:12
1031
原创 AI Agent全解析:从第一性原理到多Agent协作,程序员必学的大模型进阶指南
本文深入探讨了AI Agent的理论基础与第一性原理,详细分析了Agent协作技术从"手艺人"到"现代企业组织"的五个发展阶段,概述了Agent在算力、知识记忆、预测和动作执行方面的核心能力。文章展望了未来技术发展方向,包括大模型专业化、多模态能力提升、减少人类指令输入、数据共享与应用扩展,强调不同协作阶段各有适用场景,共同构成AI技术发展生态。
2025-12-16 18:34:34
519
原创 构建高效RAG系统:21种文本分块策略全解析,程序员必备收藏指南
本文详解RAG系统中的21种文本分块策略,从基础方法(换行符分割、固定大小分块)到高级技术(语义分块、智能代理分块),分析各策略适用场景与实现方式。强调分块策略对RAG系统性能的关键影响,为开发者构建可靠RAG系统提供全面指导。
2025-12-16 18:33:05
778
原创 从RAG工程到API调用:Google File Search带来的技术变革
Google Gemini的File Search将RAG技术从复杂的工程流程简化为内置API功能,开发者只需上传文件即可自动完成检索、分块、索引等步骤。这一变革降低了技术门槛,但也使工程师失去了对系统的理解权和掌控权,权力从工程师向平台集中。RAG从需要掌握的知识变成了被调用的功能,工程师角色从"构建系统"变为"调用系统"。这种技术抽象化虽提高了效率,但也改变了技术边界,使复杂被隐藏,个人理解被平台信任所替代。
2025-12-15 11:38:58
796
原创 构建高效RAG系统:21种文本分块策略全解析,附代码实现
文章系统介绍了RAG系统中的21种文本分块策略,从基础方法(换行符分割、固定大小分块)到高级技术(语义分块、递归分块),每种策略均详细分析适用场景、技术要点并提供代码实现。这些方法针对不同数据类型和应用场景设计,能显著提升检索质量和生成效果,是构建可靠RAG系统的关键技术。
2025-12-15 11:37:44
808
原创 LangChain从零开始:手把手教你构建大模型应用,解锁AI开发新技能
文章详细介绍了LangChain框架,它是连接大语言模型和现实世界的桥梁。通过组件化设计,LangChain解决了大模型的三大局限性:知识过期、无记忆能力和缺乏工具使用能力。文章从环境搭建开始,逐步介绍了基础工作流、记忆功能、RAG检索增强生成、Agents工具使用,以及使用Streamlit构建网页界面,最后通过LangGraph展示了复杂的流程编排。这篇教程为开发者提供了完整的实战路径,帮助构建自己的AI应用。
2025-12-12 18:12:41
590
原创 让AI为你打工的提示词工程全攻略,程序员必学
文章强调高效AI交互的核心是"如何有效提问",而非技术黑话。作者基于2001年经典指南提出七大原则:先做功课而非伸手党;描述现象而非猜测原因;目标导向而非步骤导向;保持简洁具体结构化;先求关键指引而非完整答案;礼貌并形成反馈闭环。这些原则能帮助用户获得更精准、高效的AI回应,真正掌握与AI协作的艺术。
2025-12-12 18:11:47
1128
原创 收藏必看!大模型微调技术详解:11种高效方法对比与应用
这篇文章详细介绍了11种大型语言模型的参数高效微调方法,包括前缀调优、LORA及其变种、QLORA、LongLORA等。这些方法通过冻结预训练模型参数,仅优化少量特定参数或向量,实现模型适应特定任务,显著减少计算和存储资源需求,同时保持模型性能,为不同场景下的大模型微调提供了多样化的解决方案。
2025-12-11 12:02:50
1198
原创 大模型微调完全指南:从基础到高级,程序员必学收藏详解
本文全面介绍了大模型微调技术,包括微调基本概念、监督微调(SFT)方法、领域模型适配策略以及参数高效微调(PEFT)技术。详细对比了全参数微调与LoRA、Adapter等高效微调方法的优缺点,探讨了数据准备、模型选择、显存优化等关键问题,帮助读者掌握大模型微调的核心知识与实用技巧。
2025-12-11 12:02:00
118
原创 Graphiti 新 MCP 服务器:构建动态知识图谱,打造AI智能体记忆系统
Graphiti 是一个构建和查询时间感知知识图谱的开源框架,专为动态环境中的AI智能体设计。它支持实时增量更新、双时间数据模型和高效混合检索,与传统RAG方法相比能更好地处理动态数据。Graphiti 提供了MCP服务器实现,可与Claude、Cursor等客户端集成,支持多种LLM提供商和数据库后端,帮助开发者构建具有上下文感知和精确历史查询能力的AI应用。
2025-12-10 17:27:24
800
原创 三种大模型本地知识库搭建方法对比,小白也能轻松上手
本文对比了三种大模型本地知识库工具:Mia(腾讯出品,云端存储,稳定免费)、Cheer Studio(专业开发环境,深度模型集成,学习成本高)和AnythingLLM(开源自托管,轻量化,适合高并发场景)。详细介绍了各工具的安装步骤、优缺点及实际使用情况,帮助读者根据需求选择合适的解决方案,实现大模型本地知识管理。
2025-12-10 17:26:21
1156
1
原创 程序员必备:Coze工作流搭建AI视频生成器,历史内容一键搞定
文章介绍如何使用Coze工作流搭建AI智能体,自动化生成历史故事视频。作者详细讲解工作流步骤并提供成品,降低学习门槛。通过AI工具,创作者可高效生产历史类短视频,解决创意和产出速度问题,适合想利用AI提高内容制作效率的人群。
2025-12-09 10:25:14
920
原创 通俗易懂讲解什么是AI智能体,打造你的AI智能体军团
文章深入浅出地解释了AI智能体的概念、能力与结构。智能体区别于传统聊天机器人,能自主思考规划、调用工具完成目标。从能力层面,AI承担更多任务;从结构层面,主要包括大脑(规划与模型)、感知与记忆、行动与工具三大组件。当前市场上如豆包、Cherry Studio等是智能体创建平台,而Manus等更接近真正自主智能体。文章强调应根据实际需求创建智能体,让AI为工作生活带来实际帮助。
2025-12-09 10:23:38
696
原创 大规模RAG系统延迟优化完全指南:从局部陷阱到系统级解决方案的实战技巧
本文深入剖析大规模RAG系统延迟优化的系统性方法,指出盲目追求向量检索速度或大模型推理优化的局限性。提出多层次优化策略:检索阶段采用多级召回与混合检索;上下文管理通过重排序与压缩技术;生成阶段应用高效推理框架;系统级实现多级缓存与智能编排。强调只有跳出局部优化,从整体架构视角改造,才能构建真正低延迟、高吞吐的生产级RAG系统。
2025-12-06 18:55:14
584
原创 GraphRAG:大模型架构升级之路,从搜索数据到推理洞察的质变
GraphRAG通过整合知识图谱与RAG技术,解决了传统RAG在处理复杂关系和全局性问题时的局限。它实现了从"搜索数据"到"推理洞察"的质变,具备多跳推理、全局总结和可解释性三大优势。GraphRAG将非结构化数据转化为结构化认知,通过显式关系链连接孤岛信息,利用分层社区摘要技术统揽全局,并提供了清晰的溯源路径,代表了大模型应用架构的重要发展方向。
2025-12-06 18:54:19
832
原创 大模型Agent落地必知:做减法才是王道
本文强调Agent业务落地的核心是"做减法",而非盲目追求更大的上下文、更全的工具或更复杂的流程。通过精准的信息检索、工具选择、流程优化,以及将长材料卸载到外部系统,可有效避免上下文中毒、干扰等问题。文章提供了六个可落地的"减字"策略和渐进式实施路线,帮助开发者构建更稳定、高效、经济的AI Agent,实现更好的业务留存与复用。
2025-12-05 18:53:57
880
原创 模型Agent架构设计全解析:从单智能体到多智能体工作流,收藏必备!
文章系统介绍大模型智能体架构设计,涵盖单Agent三大核心能力及其优化方法(反思、工具使用、Plan-and-Execute);详细阐述工作流模式(静态顺序、路由、并行等)及适用场景;探讨多智能体系统架构与协作机制;分析低代码与高代码开发选择。为开发者提供从基础到高级的Agent设计系统指导。
2025-12-05 18:52:47
700
原创 超越Prompt工程:掌握LLM上下文设计的五大核心要素
本文阐述LLM作为无状态函数的本质,强调上下文工程对构建高效AI Agent的重要性。文章详细介绍上下文五大核心要素:Prompt与指令、外部数据检索、状态与历史、记忆和输出结构指令,并探讨自定义上下文结构的优势,包括提高信息密度、优化错误处理、增强安全性、提升灵活性和Token效率,帮助开发者显著提升AI Agent性能。
2025-11-29 19:16:51
933
原创 从原理到实战:AI Agent停止策略全解析,避免无限循环与资源浪费
本文深入探讨了AI Agent停止策略的设计思路与实现方法。AI Agent本质是一个大循环,若无合理停止机制,会导致无限循环浪费资源或过早停止无法完成任务。文章分析了六种常用停止策略:硬性限制、任务完成检测、显式停止信号、循环检测、错误累积和用户中断。结合OpenManus和Gemini CLI的源码,详细展示了如何通过terminate工具、状态机管理、声明式输出系统和三层循环检测机制实现有效停止。强调实际应用中需组合多种策略形成多层防护,在"完成任务"与"防止失控"间找到平衡。
2025-11-29 19:15:34
720
原创 大模型微调完全指南:从概念到实践,小白也能学会
大模型微调是将预训练模型从机械文字接龙转变为符合人类需求的关键技术。微调分为全参数微调(FFT)和参数高效微调(PEFT),后者包括LoRA、Prefix Tuning、Adapter Tuning等多种方法,通过更新部分参数实现模型特定任务适配。微调过程包括数据准备、模型选择、方案制定、超参数配置等九大步骤,有效降低大模型训练成本,提升模型在特定任务上的性能表现。
2025-11-28 09:15:09
1007
原创 从零开始构建自己的智能体框架HelloAgents,小白也能学
本文详细介绍了从零开始构建智能体框架HelloAgents的完整过程,阐述了自建框架的必要性,包括理解工作原理、获得完全控制权和培养系统设计能力。框架设计遵循轻量级、教学友好、基于标准API和渐进式学习路径的原则。文章展示了核心框架层、Agent实现层和工具系统层的实现,包括多种Agent范式(如SimpleAgent、ReActAgent等)和工具系统的设计与开发,为开发者提供了从使用者到构建者的能力跃迁路径。
2025-11-28 09:12:52
793
原创 大模型高效微调:LoRA及其变种全解析
LoRA是一种高效的大模型微调方法,通过低秩分解在原始模型旁增加可学习矩阵,显著降低显存需求并保持与全参数微调相近的效果。文章详细介绍了LoRA原理及其多种变种,如QLoRA(4bit加载)、LoRA+(不同学习率)、AdaLoRA(动态调整秩)、DoRA(分解大小和方向)等。这些方法在保持模型性能的同时,进一步优化了训练效率和资源消耗,成为大模型参数高效微调(PEFT)的重要研究方向,在工程界得到广泛应用。
2025-11-26 14:56:59
542
原创 什么是ollama及其安装
Ollama 是一个专注于本地部署和运行大语言模型(LLM)的开源工具,由美国公司 Ollama Inc. 开发。它提供了简单的命令行界面和 HTTP API,使开发者能够在本地环境快速部署、运行和交互各种开源 LLM,无需依赖云服务。
2025-11-26 14:56:02
842
原创 AI大模型开发中高质量需求文档编写技巧
本文讨论为AI大模型编写高质量需求的关键要素,强调可测试性(小粒度、可观察性、可控性)、可追溯性和可行性。与人类不同,AI需要更明确、详细和结构化的需求文档,因为缺乏常识和经验。良好需求能减少AI生成代码的"幻觉"现象,提高代码质量。精心编写的需求不仅有助于AI生成好代码,也能让人更好地理解系统,是一举两得的实践。
2025-11-25 14:26:18
526
原创 Context Pruning结合rerank,优化RAG上下文的收藏级指南
文章探讨长上下文RAG系统的优化策略,重点介绍Context Pruning技术及其与rerank的结合。详细分析了四种长上下文失效模式,介绍开源模型Provence如何同时完成文档相关性判断和句子剪枝任务,实验显示其F1值达66.76%,表现优异。文章指出Context Pruning与Semantic Highlight本质相同,可服务多场景,并展望了Context Engineering的未来发展方向。
2025-11-25 14:23:46
1008
原创 大模型三大核心技术揭秘:上下文工程vs提示工程vs微调,小白也能搞懂!
文章详细解析了大模型三大核心技术:上下文工程、提示工程和微调的区别与应用。澄清了上下文工程与RAG的本质差异,介绍了上下文学习(In-Context Learning)原理、One-Shot/Few-Shot学习技术,并强调提示工程是临时挖掘模型潜力而不修改参数,而微调则是通过修改参数永久提升模型能力。掌握这些概念对高效使用大模型至关重要。
2025-11-24 18:08:52
1023
原创 2025年LLM优化实战:微调vs提示词工程,如何选择才不踩坑?
文章对比了大语言模型优化的微调与提示词工程两种策略,通过技术本质、数据需求、成本效益、适用场景和风险图谱5个维度分析优劣。2025年最佳实践是建立动态评估机制,定期审计、A/B测试和技术监测,根据业务需求灵活选择或结合两种策略,构建智能切换优化路径的系统,实现AI时代持续领先的核心竞争力。
2025-11-24 18:07:21
1076
原创 6.1K Star!AI工程师必收藏!22种RAG技术全实现,从入门到王者的开源宝典!
6.1K Star!AI工程师必收藏!22种RAG技术全实现,从入门到王者的开源宝典!
2025-07-07 22:31:53
506
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅