- 博客(630)
- 收藏
- 关注
原创 AI Agent 从 Demo 到工程,最容易被忽略的几个“致命点”
错误被压缩进历史,然后被当成前提继续推理。一旦 Summary 覆盖了原始推理链,后面的步骤再“合理”,也是在错误基础上自洽。没有 SROE 的系统,很难真正纠偏。
2026-01-08 10:57:09
534
原创 Agent 没死,但你现在做的 Agent,可能已经过时了
Agent 没死,死的是“没有刹车的 Agent”。能随时被停能完整回放永远不拥有最终执行权那它不是过时,而是下一代标准形态。
2026-01-08 10:49:24
252
原创 多模态Agent技术介绍
未来研究应聚焦于提升注意力机制的可解释性,并探索符号主义与连接主义的深度融合,以推动多模态Agent在医疗、自动驾驶等领域的实际落地。多模态Agent技术已成为人工智能领域的重要突破,其核心在于通过整合文本、视觉、音频等多种输入模态,实现更接近人类认知的复杂任务处理能力。作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。多模态Agent的技术架构由感知模块、决策模块和执行模块构成,通过融合层与反馈循环实现跨模态交互。
2026-01-08 10:48:11
427
原创 2026年智能客服行业发展趋势:AI大模型的5大应用方向
在医美行业的实际应用中,当用户咨询敏感问题时,来鼓AI的情感计算模块会识别用户的焦虑情绪,采用更加专业、耐心的沟通方式。在实际应用中,新东方、英孚、学而思等200+教育品牌使用来鼓AI后,AI员工的对话流畅度在3个月内从初期的78%提升至92%,客户对AI服务的满意度评分从7.2分提高到8.9分(满分10分)。大熊旅行的品牌营销总监宋晓鲸表示:“AI数字员工的获线效果比真人客服还要好,既节省了人力,又保证了回复的准确性和专业性,能根据顾客的提问智能回复用户问题。夜间和节假日的客户咨询一直是企业的服务盲区。
2026-01-08 10:23:24
601
原创 AI Agent竞争的下半场:决胜关键不在模型,而在系统架构
智能体系统不是一蹴而就的产品,而是一种“逐步演进的工程”。一开始你可以只做一个问答助手,但随着工具接入、状态管理、知识库丰富,它会慢慢成长为一个懂业务、会协作、能执行的智能体生态。未来的竞争,不在于谁接了哪个大模型,而在于谁能把“智能”更好地嵌入业务流程中。而这张架构图,正是那条通往可落地智能体系统的路线图。
2026-01-07 10:45:03
682
原创 30天高效掌握AI大模型!系统学习计划+资源推荐
通过这30天的150小时高强度训练,您将掌握从模型微调到企业级部署的全链路能力。正如大模型正在构建“AI基础设施”,这项技能将成为您职业发展的核心杠杆。
2026-01-07 10:40:40
483
原创 智能体设计模式:规划与执行模式(Plan and Execute)
Plan and Execute(规划与执行)是一种面向复杂任务处理的AI智能体设计模式,其核心思想是将复杂目标拆解为可执行的子任务序列,通过“先规划、再执行、强反馈、动态调整”的闭环逻辑,实现对复杂任务的有序、高效完成。该模式突破了传统端到端AI模型“输入-输出”的直接映射局限,引入了“规划层”与“执行层”的分层架构,通过规划层生成全局任务蓝图,执行层负责具体子任务的落地,同时依托反馈机制实时修正规划偏差,确保任务目标的最终达成。
2026-01-07 10:35:31
602
原创 多模态大模型有哪些模态?
多模态”中的“模态”(modality),即指各类数据形式或信息来源。涵盖自然语言文本、经语音识别转换的文本内容等。指视觉图像数据,例如照片、插画、艺术作品等。包含动态影像序列,如短视频、影视片段、监控录像等。指声学信号数据,如人声、音乐、环境音效等。还包括如环境传感器读数、生理信号、指纹、虹膜等非传统信息形式。多模态模型的核心目标,在于融合上述异构模态的信息,以增强模型对输入数据的语义理解、任务执行与预测能力。通过协同利用多源信息,模型得以构建更立体、更精准的认知框架。
2026-01-07 10:32:29
186
原创 基于多 Agent 的 Planning-Executor 架构设计
Plan Stack:每个 Agent Instance 一个:每个 Agent Instance 一个,隔离存储:共享存储,所有 Agent 可访问。
2026-01-07 10:27:25
818
原创 35岁程序员的出路:AI赛道疯狂抢人,年薪百万不是梦
2025年7月1日,35岁程序员胡文收到猎头信息:某车企智能座舱系统架构师岗位,年薪80万+股权,急招!这让他忆起3年前被优化时的恐慌。如今行业数据显示,掌握核心竞争力的35+程序员迎来黄金期,AI赛道以3倍薪资抢人。一、行业真相:35岁危机本质是能力危机2025年程序员生存报告揭示:仅掌握基础开发的程序员岗位需求降52%。AI工程化、云原生、智能驾驶等领域岗位缺口扩38%。企业给35岁以上资深技术专家的平均年薪达82万,较初级岗高4.2倍。典型案例对比:二、5条高价值出路深度解析。
2026-01-06 11:15:53
727
原创 AI大模型从0到1:你的90天蜕变计划,告别小白直通前沿!
人工智能(AI)特别是大语言模型(LLMs)的浪潮正以前所未有的速度席卷全球,从科研到产业,其影响力日益深远。对于渴望踏入这一前沿领域的学习者而言,一个清晰、高效的学习路径至关重要。本文旨在为您提供一个为期三个月的AI大模型快速学习计划,帮助您从基础概念到实践应用,系统构建知识体系,抓住时代机遇。万丈高楼平地起,扎实的基础是快速学习AI大模型的关键。本月重点在于掌握核心理论、编程工具及相关数学知识。2在掌握了基础知识后,本月将聚焦于构成现代AI大模型的核心技术——Transformer架构及其相关生态。
2026-01-06 10:49:29
624
原创 RAG:企业数智化的“知识引擎”,让AI真正读懂你的业务
技术视角的RAG:一个将大模型与外部知识源检索相结合的框架,通过向量化检索改善问答准确性。商业视角的RAG企业的数字大脑皮层,负责将散落在各处的知识(文档、数据库、系统记录)组织起来,供AI核心"思考"时使用。一个形象的比喻大模型本身如同一个聪明但经验有限的实习生——反应快、学习能力强,但对公司业务一无所知RAG系统则如同一位在该岗位工作20年的老专家——对公司的大小事务、历史沿革、业务细节了如指掌两者结合:实习生遇到问题时,立即咨询老专家,基于准确的信息给出专业回答RAG解决的三大商业痛点。
2026-01-06 10:45:46
733
原创 全面掌握 AI Agent 30 个高频面试的问题与解答相关的核心知识点!
AI 智能体是能够自主决策并执行任务的系统,运行过程中几乎无需人为干预。它们能够理解环境、做出推理,并根据实时数据与上下文动态调整其行为。这些智能体通常结合了机器学习(ML)、自然语言处理(NLP)、强化学习(RL)等相关的技术,以实现不断优化与演进。RAG(Retrieval-Augmented Generation)是一种结合外部知识检索与生成式 AI 的方法,显著提高答案的准确性与上下文相关性。它特别适用于对最新资讯或专业知识要求较高的场景。示例:医疗类智能体可实时检索最新研究成果,给出权威建议。
2026-01-06 10:43:43
660
原创 AI时代程序员如何高效提问与开发工作?
学习阶段:AI作为个性化导师,帮助构建扎实的知识基础理解阶段:AI作为代码导航员,加速对复杂系统的理解创造阶段:AI作为创意实现者,将想法转化为可工作的代码优化阶段:AI作为质量守护者,确保代码的健壮性和可维护性清晰的表达、系统的思考、持续的验证。只有这样,我们才能真正发挥AI在编程工作中的最大价值。
2026-01-06 10:20:48
608
原创 智能体工作流:从架构设计到行业落地
智能体工作流(Agentic Workflow)是由AI智能体主导的动态任务执行流程,通过规划-行动-反思的闭环机制,实现复杂任务的自动化处理。动态适应性:根据实时反馈调整执行路径(如电商促销策略动态优化)工具协同能力:整合API、数据库、代码执行等工具链(如金融风控系统)持续进化机制:通过记忆模块积累经验(如客服对话策略优化)维度传统工作流智能体工作流决策机制预定义规则LLM动态规划工具调用固定接口调用自主工具选择与组合错误处理人工干预自动重试与策略调整知识更新。
2026-01-05 10:21:04
667
原创 谈谈 AI Agent(智能体)
AI Agent传统软件或者工作流的目的是为了用户能够简化和自动化工作流,而AI Agent则能够以高度的独立性代表用户执行为实现用户目标的一系列步骤。首先集成了LLM但不用它们来控制工作流执行的应用程序(例如简单的聊天机器人、单轮对话LLM或情感分类器)不是称为智能体。能利用LLM来管理工作流执行并做出决策,它能识别工作流何时完成,并能在需要时主动纠正其行为,如果失败,它可以停止执行并将控制权交还给用户。
2026-01-05 10:16:30
787
原创 RAG知识库远远没有你想象中的那么简单!
知识库系统作为大模型应用的关键模块,始终保持着与大模型的解耦特性。此前文中曾探讨过知识库的构建困境,不少读者反馈内容空泛、缺乏实操价值。构建知识库,从来不只是工程实现的命题,更是一场设计哲学的思辨:技术层面确保其可部署、可运维,而哲学层面则锚定其高可用性、可扩展性与跨系统兼容性。在AI时代盛行的今天,知识库早已超越RAG的边界,成为底层知识基础设施;理论上,凡需知识支撑之处,皆有其存在——无论是智能体决策,还是AIGC内容生成,莫不如此。
2026-01-05 10:09:11
551
原创 聊聊上下文工程
Prompting是人与大语言模型(LLM)交互的核心接口,通过精心设计输入内容,引导模型生成符合预期的输出结果。提示工程作为一门专门的工程学科,核心内涵包括:结构化设计请求、提供精准上下文、指定输出格式规范、定义响应类型标准等关键动作。优质的提示词语能最大化激活模型能力,输出准确、相关性强且具备创造性的结果;反之,设计不当的提示词可能会导致模型输出模糊、偏离主题甚至出现错误的内容。
2026-01-05 10:03:46
817
原创 豆瓣评分 9.4,为什么很多人都在推荐这本书?几页就能让你看懂!
作为一个对 LLM 工作原理很感兴趣,但又常常被各种零散教程绕晕的人,我读完 Sebastian Raschka 的《从零构建大模型》之后,其实挺松一口气的。我原本以为这本书要么会过度简化、要么会高度抽象,甚至可能出现那种你先接受这个公式就好的玄乎讲法,但它其实很踏实,从最基础的模块开始讲起,一步步带你把模型搭出来。
2026-01-05 09:59:30
819
原创 大模型Function Calling的函数如何调用的?
在实际项目中,大模型的 Function Calling 是一个安全代理机制我们先向模型声明可用函数及其参数 schema;模型返回结构化调用请求(非执行);后端严格校验参数、权限、路径,在沙箱中执行真实函数;将结果反馈给模型,形成多轮推理闭环。模型只负责“决策”,不负责“执行”——这是生产系统安全落地的底线。
2026-01-04 10:24:47
743
原创 AI冲击下的职场新物种:超级个体
我们可以这样理解:超级个体不是“超人”,而是“系统思考+自演化”的人类新模板。维度超级个体的特征对比传统职场人能力模型模块化 & 组装式(多技能拼接)线性成长(单职业路径)组织关系网络节点(可协作、可独立)附属节点(需层级机构)工具心智AI原生使用者数字工具的操作者收益模型多渠道积累(内容、代码、资产)单一工资收入一句话总结:超级个体不是“打工的人”,而是“会用AI为自己打工的人”。
2026-01-04 10:17:50
519
原创 前端可以转型AI工程师吗?那可太能了...
时代的浪潮从未停歇,从互联网到移动端,再到如今的AI,每一次技术范式转移,都不仅仅是工具的迭代,更是一次价值的重新洗牌与职业角色的深刻重塑。折腾死还是等死,总得选一个。AI要替代的,从来不是哪个具体的岗位,而是那些可以被标准化、被数据穷举的“人事物”。如果要跳出被替代的部分,那就要要去很多非标准化的事,而这其实对各位前端其实不难,单看各位想不想罢了...
2026-01-04 10:03:01
605
原创 AI 未来展望:2026 年值得关注的七大趋势(基于微软视角)
这七大趋势清晰地表明,到 2026 年,人工智能将不再是一种孤立的技术,而是会深度融入我们的工作流程、研究体系和基础设施之中。未来的关键不在于与人工智能竞争,而在于我们如何适应、学习并与之协同,从而共同拓展人类能力的新边界。
2026-01-04 09:59:12
843
原创 2025 年大语言模型发展回顾:关键突破、意外转折与 2026 年展望
2025 年,大语言模型的智能进化路径发生了根本转变:其智能提升不再仅仅依赖于训练阶段的参数扩展,而是更多地源于“思考”过程本身——即通过推理时的方法优化来实现。这一转变体现在众多层面:基于强化学习的推理优化、推理时扩展技术、工具调用能力、混合架构的兴起以及更高效的部署策略。
2026-01-04 09:56:59
913
原创 AI Agent上下文工程设计指南|附实用工具推荐
压缩的目的,就是在尽量少用 token 的情况下,把对当前任务最关键的事实、意图、变化抽取出来。大多数大型语言模型都有一个固定的上下文窗口,这意味着我们不能把所有信息都一股脑地塞进去,而必须像挑选和整理信息,只提供最核心、最关键的内容输入进去。作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
2025-12-31 11:28:03
931
原创 彻底搞懂大模型“预训练”和“微调”
💡 预训练让模型获得了通用能力和知识基础,微调让模型具备了专业能力和实用价值。它们就像培养人才的过程:先通过通识教育打下宽广基础,再通过专业培训成为领域专家。正是这种组合,让AI既能拥有广博的知识,又能具备专业的技能,最终成为我们工作和生活中的得力助手。
2025-12-31 11:23:42
444
原创 万能Agent兜底:当规划缺失工具时,AI如何自救
传统做法通过判断工具列表是否为空或设置调用次数上限来结束任务,但最终输出往往过于简略,无法满足用户需求。解决方案是引入总结输出工具,当判断输出的工具为内置的结束总结工具时,额外调用一次原生大模型,生成专业的任务汇总报告。本文针对 React 模型助理在生产环境中遇到的性能与体验问题,提出了系统化的改进方案。这些方案不仅适用于自主规划模式,也可为其他多智能体协作模式提供借鉴。实践表明,许多优化工作实际上是针对模型本身能力不足进行的工程补偿。
2025-12-31 11:18:46
841
原创 一个DeepSeek就够了吗,聊聊大模型工作流
大模型工作流(Large Model Workflow)是指利用大语言模型(LLM)或大模型(如GPT、DeepSeek、通义千问等)的能力,结合自动化任务编排技术,构建端到端的AI应用流程。它通过可视化或代码方式连接多个AI模型、数据处理模块、逻辑判断节点等,实现复杂任务的自动化执行。总结一句话就是单个大模型的解决问题能力是是有限的,必须借助工作流通过将复杂任务拆分为多个有序步骤,结合多模型协同和外部工具调用,才能显著提升解决问题的能力。
2025-12-31 11:09:22
597
原创 生成式应用架构师的修炼手册
生成式应用架构师,不只是一个“调接口的工程师”。他是站在模型之上的指挥官,懂数据流、懂算力、懂缓存,还能和AI一起即兴 Freestyle 🤙。将语言模型(LLM)图像生成模型(Diffusion)语音生成系统(TTS)推理器组合成一个协奏系统;让数据像血液一样流动,模型像器官一样协同,最终构建出一个“AI生命体”。可以这样理解:“传统架构师构建的是系统,生成式架构师培育的是智能体。
2025-12-30 11:08:34
947
原创 AI 时代:Coding 如何约束智能体的任务正确率
AI 时代,代码不再只是让机器听话地执行命令而要让它在复杂决策中不胡来、不越界、还能持续正确。但问题来了 —— 你无法完全预测一个拥有自我调整能力的模型在实际环境中会怎么“发疯”。于是我们需要从编码层面约束它的“正确率”,也就是:如何用代码和结构设计,让智能体既聪明又守规矩?幻觉事实(AI 胡编乱造)值域错误(把 01 的概率输出成 0100)风险语义(输出不合理建议)解决方案是引入Rule-based Validator + 动态反馈 Re-Scoring。// 输出验证器。
2025-12-30 11:04:26
885
原创 WebAssembly在AIGC推理中的优化细节
这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。那以下这些PDF籍就是非常不错的学习资源。作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。简单说:WASM不寄宿于JS的世界,而是另开一间宿舍,内存一字排开,冷静得像个计算机考古现场。
2025-12-30 11:01:27
743
原创 多模态 AI 的崛起:语言、图像与视频的融合革命
这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。它让“说话的 AI”看见世界,也让“会看图的 AI”学会思考。AI 的终极目标,是把这些投影重新编织成完整的“理解”。
2025-12-30 10:58:20
961
原创 生成式应用架构师的修炼手册
生成式应用架构师,不只是一个“调接口的工程师”。他是站在模型之上的指挥官,懂数据流、懂算力、懂缓存,还能和AI一起即兴 Freestyle 🤙。将语言模型(LLM)图像生成模型(Diffusion)语音生成系统(TTS)推理器组合成一个协奏系统;让数据像血液一样流动,模型像器官一样协同,最终构建出一个“AI生命体”。可以这样理解:“传统架构师构建的是系统,生成式架构师培育的是智能体。
2025-12-30 10:25:09
681
原创 容器化部署 Flux.1-dev 文生图模型应用 | 共绩算力
作为2024年最强的开源文生图模型,Flux.1在文字渲染、人物细节和画面构图上全面超越SDXL。最重要的是,现在有现成的容器化方案,让你跳过繁琐的环境配置,一键部署即可使用。仅需两样东西:登录平台后,在服务部署页面搜索"FluxEz"官方镜像。这个42GB的镜像已集成所有需要的环境、模型文件和API接口,无需手动下载。直接采用默认配置即可,系统会自动:确认配置无误后,点击"部署服务"。耐心等待1-2分钟,让节点拉取镜像并启动。当看到状态变为"运行中",说明部署成功!在任务详情页找到"快速访问"区域,系统会
2025-12-30 10:22:28
966
原创 大模型应用开发必需了解的基本概念
总体下来的感受是 LLM 应用大部分的代码都是 prompt 提示词,普通 app 的主要内容是代码,而不同大模型应用的主要区别是提示词;反而代码大部分都是趋同的。区别就是用了什么框架,但是共同的就是调用大模型 API,将传统的 request/reponse 的请求模式换为流式响应(大模型的响应很慢)。在开发应用时,需要了解(系统预设角色)、(用户提问)和Few-shot(给模型几个例子引导它)。好的 Prompt 是让 RAG 结果准确的关键。后续还需要更加完善。
2025-12-29 11:21:52
824
原创 大模型原理
当我们谈起大模型的原理,迎面而来的是一系列专有名词,例如这些专有名词是那么的多,以至于理解大模型的底层原理变得很困难,更不用说讲解清楚了。本文不涉及任何一个专有名词,。
2025-12-29 11:19:57
859
原创 大模型训练为什么需要数据清洗
2026年至2032年间,全球大语言模型将消耗殆尽人类制作的公开文本总量——这是调研机构Epoch AI给出的预测数据。在数据总量有限的前提下,如何让AI"吃得好"才能"工作好",成为各大模型厂商竞争的核心。数据清洗作为大模型训练前的必经环节,其重要性正在被重新定义:它不仅决定了模型能否准确理解世界,更直接影响着企业在AI竞赛中的生死存亡。
2025-12-29 11:17:45
521
原创 Transformer入门:一文读懂《Attention Is All You Need》
论文中将注意力机制描述为一个映射过程:它将一个查询(Query)和一组键值对(Key-Value pairs)映射到一个输出。Query (Q):代表当前需要关注的焦点。Key (K):代表序列中可供注意的各个元素。Value (V):代表这些元素实际包含的信息。注意力的输出是所有值(Values)加权和(weighted sum)。而每个值对应的权重,则是由查询(Query)与它对应的键(Key)通过一个兼容性函数(compatibility function)计算得出的。
2025-12-29 11:14:28
888
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅