Agentic Enterprise:把 AI 从神坛拉回用户办公桌

从“人迁就 AI”到“AI 为人而变”,本文拆解了企业决策场景中的六大范式转换,提出以用户为中心的智能体生态,让 AI 真正服务于流程、隐私与战略。

大家好,我是肆〇柒,AI 的蓬勃发展正以前所未有的速度渗透到人类生活的各方面。而在商业领域,AI 的影响力更是不容小觑,尤其在企业决策这一关键环节。企业各职能、任务和运营都离不开高效的决策,而 AI 正展现出助力企业提升决策效能的巨大潜力。

然而 AI 在 2B 落地的领域,当下广泛存在的 AI-Centric User(以 AI 为中心的用户)范式却暴露出诸多问题。一方面,用户往往需要费尽心思去适应 AI 的固定模式,例如必须按照特定的方式发送查询请求(提示词门槛),才能从 AI 那里获得相对有用且准确的回应。另一方面,现有的 AI 模型多是基于大众用户的通用偏好进行设计与优化,这无疑忽视了特定场景、特定流程以及专业人士和经验丰富的用户群体的多样化需求(通用偏好错位)。

企业目前的开发重心大多集中在 AI 技术本身,却相对轻视了用户的真实期望,这种失衡严重制约了 AI 在企业领域的深度应用与价值释放。当企业把 AI 当成“万能答案机”,却发现提示词越写越长、结果仍难贴合业务;当通用大模型面对专业流程频频“掉链子”,此刻才意识到:真正需要转变的不是人,而是 AI 本身。所以,要想改变,我们就必须先回答一个更底层的问题:企业究竟需要怎样的 AI?

而在当下,人工智能的落地就在一个范式转变的临界点——从“人围着机器转”到“机器围着人转”。这一转变不再是简单的技术升级,它变成了一场关于决策权、隐私权与价值创造权的重新分配。下面将以企业决策这一高压场景为切口,分析如何让 AI 像资深顾问一样,不仅懂业务,更懂人。

企业决策与智能体的关联

企业长期投入与回报现状

当下,企业的长期 viability(可行性与持续性)在很大程度上依赖于对 AI 的资本支出。据相关数据显示,仅有 1% 的公司高管认为其生成式人工智能(GenAI)部署已经达到了成熟阶段。与此同时,更多的企业虽然频繁对外宣称积极引入 AI 技术以优化运营,但深入调查后会发现,真正利用 AI 进行严肃、核心工作的案例少之又少。

企业 AI 使用的期望与收益模式与个人领域存在显著差异。在企业环境中,用户通常需要对他人负责,这使得他们的行为模式与个人情境下的行为大相径庭。例如,在企业任务中,常常会有多个用户共同参与完成一项复杂任务;任务的解决方案往往具有高度可定制性;工具的价值更多地由其重复使用的频率和效果来判定;而且工具的需求还会依据企业内部其他用户所使用的工具而呈现出特定的依赖关系(多用户参与、任务定制、重复价值、工具依赖等)这些错综复杂的因素无疑大幅增加了开发适配企业场景的 AI 技术的难度,但与此同时,也蕴含着巨大的发展机遇。智能体正是在这样的背景下,被视为助力企业决策、提升企业智能化水平的关键力量。

智能体助力企业决策缘由

对于企业而言,要充分释放 AI 的潜力,关键在于通过高效且有效的组织方式,利用任务特定的智能体来满足企业的多样化需求。企业决策,因其普遍存在性、固有的模糊与不确定性、耗时费力的特性,以及更易于受到 AI 技术的深远影响,成为了智能体应用的核心焦点。

当 AI 能够深入理解企业决策的复杂逻辑与内在规律时,它便能够成功实现从低附加值的 AI 助手向高附加值智能体的转型升级。这不仅能显著提升企业决策的科学性与精准性,还能为企业带来更为可观的效益与竞争优势,进而推动智能体在企业领域的大规模应用与持续发展。而接下来,下面将重点阐述智能体得以在企业决策中可发挥重大价值的六项核心原则,展示它们如何为 AI 与智能体的有效组织架构搭建起坚实的基石。

User-Centric AI 的六项原则阐述

原则一 AI 的流程导向优先原则

在企业场景中,用户从 AI 技术中所获取的价值主要分为结果价值与流程价值两大类别。鉴于用户代理观念、期望值以及技能水平等方面的显著差异,AI 实际上很难完全满足所有用户对于结果质量的高标准、严要求。相比之下,流程导向的 AI 则能够依据用户独特的工作流程,在不同的任务节点灵活介入,为用户提供更契合其实际需求的辅助支持。

比如,流程导向 AI 允许用户根据自身的工作习惯与任务特点,自行组装各类工具,构建个性化的全流程工作模式。这就要求 AI 系统必须深入理解用户的工作流程细节,并持续学习如何进一步优化流程效率。通过这种方式,AI 将结果质量的责任合理地转移给用户自身,充分保留了用户的自主代理权。以数据准备、模型选择、结果评估及展示这一典型工作流程为例,一位经验丰富的用户往往仅需要在模型选择与运行环节借助 AI 的力量,而无需额外的辅助来完成数据准备或结果展示工作。凭借流程导向 AI 的优势,该用户能够精准地在工作流程的特定环节插入 AI 工具,同时 AI 还能凭借对后续展示需求的了解,为用户在模型选择阶段提供极具前瞻性的建议与指导,助力用户更高效、精准地达成整体工作目标。

原则二 前瞻性 AI 原则

企业用户所面临的任务往往具有复杂多样的期望与目标,其中不乏涉及长期战略规划以及多步骤的复杂工作流程。在这样的背景下,仅仅只能响应当前用户输入的被动式 AI 平台,由于缺乏必要的前瞻性,很难为企业智能化转型提供更深层次、更具战略意义的支持。前瞻性 AI 则能够主动预测用户潜在需求,在问题出现之前提前预警可能存在的错误与风险,并且引导用户沿着更优的路径前行。这样的特性使得企业用户能够基于更全面、更前瞻的信息支持,做出更明智的决策,进而更好地实现其长远目标。例如,在工作流程中的模型选择任务场景下,前瞻性 AI 不仅能针对用户的当前询问给出最佳回应,还能主动预判用户后续可能提出的相关问题,并据此提供备选模型及其详细利弊分析。与此同时,AI 还会充分考量用户在结果展示方面的特定需求,提前做好规划与准备,全方位提升用户的工作体验与成效。

原则三 本地隐私保护智能体学习原则

当前,不少 AI 平台采用对用户数据 “一刀切” 的处理模式,过度依赖通用智能体学习,这种做法难以精准匹配用户在不同任务中的技能水平与期望差异。对于专家型用户而言,他们渴望将自身深厚的专业知识整合进 AI 系统中,以此提升参与度并推动智能体的持续改进与优化。然而,这一过程中涉及的隐私与竞争风险不容小觑。本地隐私保护智能体学习原则强调,平台应根据用户专长以及隐私偏好,对数据和反馈进行精细化区分与个性化处理。如此一来,既能够实现 AI 的个性化适配,满足不同用户的独特需求,又充分尊重了用户的自主代理权。

以数据准备流程中的特征选择步骤为例,专家用户往往凭借丰富的实践经验和专业判断力,深知哪些特征不仅对模型准确性至关重要,还兼具可操作性与管理学意义(actionability & managerial meaningfulness)。通过本地隐私保护机制,确保这些宝贵的经验与见解不被泄露给企业内部的其他用户,从而有效维护了专家用户的知识资产与竞争优势。这一举措不仅促进了专家用户更积极地与 AI 系统互动,也为智能体学习注入了更高质量、更具深度的知识资源,推动整个系统的良性发展。

原则四 智能体与用户的市场机制平台原则

鉴于企业用户在偏好、风险承受能力等方面呈现出高度多样性,加之 AI 以及智能体质量与用户实际需求之间存在着一定程度的不确定性,构建一个基于市场机制的智能体与用户交互平台显得尤为重要且迫切。

在这个平台上,具备不同技能、行为模式以及风险 - 报酬特征的专用智能体可供用户自由选择。这样一来,用户便能够精准匹配到最契合自身需求的智能体,从而显著提升对 AI 输出结果的自主掌控程度以及工作灵活性。从平台运营者的角度来看,采用分散式的智能体组织架构能够有效降低因单一智能体表现不佳而引发的声誉风险,同时激发智能体之间的良性竞争与合作,进而推动持续的创新与优化。例如,在市场机制下,每个任务智能体都需要对外公开自身的能力范围与特点,并且在任务完成后接收用户的反馈评价。这种透明化的机制为智能体开发者提供了强有力的激励,促使他们不断改进与完善智能体的性能与功能,以赢得用户的认可与信赖,进而在市场竞争中脱颖而出。

这让我想起了 ANP(Agent Network Protocol) 中的 DID 机制和 Agent Card 设计,这个目的就是展示智能体的身份和能力。而由于智能体要形成一个市场机制平台,就需要连接,连接产生价值,而连接在技术层面上就需要协议,比如 ANP。

原则五 智能体风险-报酬多样性 和 质量-价格多样性原则

为了有效应对企业用户任务类型的广泛多样性,智能体供应市场必须具备充足的多样性。基于用户追求效用最大化的天然倾向,AI 平台应当赋予智能体自主选择行为风格以及风险 - 报酬档案的权利与自由。这样一来,不同风险偏好的用户群体便能够精准匹配到与之适配的智能体类型。

偏好高风险高回报的用户可以选择更具探索精神的智能体,而那些倾向于稳健保守策略的用户则可以挑选经过充分验证、表现稳定的成熟智能体。这种灵活性不仅充分保留了用户的自主决策权,还为创新提供了肥沃的土壤。与此同时,平台需要对多样化智能体进行科学管理与协调,以确保能够充分满足不同用户的多样化需求,从而构建起一个充满活力与动态平衡的智能体生态系统。以模型选择任务为例,部分用户热衷于尝试最新的模型技术,期望借助前沿成果为企业带来创新展示与竞争优势。然而,这种选择也可能面临在成果评估环节与历史基准对比困难等风险。相对地,另一些用户则更愿意依赖经过长期实践检验的经典成熟模型,以确保任务的稳定性和可靠性。在这样的场景下,智能体的风险 - 报酬多样性和质量 - 价格多样性原则能够充分满足两类用户的不同诉求,实现智能体市场的精准供需匹配。

原则六 智能体低进入、退出壁垒原则

降低智能体进入市场的壁垒,能够有效激发智能体的开发活力与创新动力。与此同时,简化表现不佳智能体的退出流程,有助于维持整个智能体生态的卓越性能表现,进而持续提升用户所获得的效用价值。在智能体进入市场阶段,平台规划者发挥着关键的守门人角色,对新进入智能体进行必要的审核与评估。这是因为与现有智能体的退出流程相比,在缺乏全面客观信息的情况下,对于新智能体的性能、功能以及适配性等方面需要进行更为谨慎细致的考察与验证。

此外,低进入、退出壁垒原则还对智能体多样性的提升起到了积极的催化作用,进一步强化了原则五的实施效果。当然,这一切都需要在充分考虑企业数据信息的安全性与保密性、用户转换成本以及智能体开发者可能存在的过度承诺等限制条件的前提下,寻求智能体进入退出机制的合理平衡。例如,在市场机制下,当某个智能体在模型选择任务中的表现持续低于设定的绩效阈值时,平台将启动退出流程,促使该智能体有序退出市场。而低进入壁垒则确保了有足够数量的合格智能体能够及时进入市场,接替空缺位置,保障用户始终能够获得高质量的智能体服务。

在明确了“以用户为中心的 AI”六项原则之后,下一个关键问题是:这些原则应当作用于企业内部的哪类决策,才能真正释放价值?

面向 User-Centric AI 的智能体企业决策

在企业中,日常决策并非同质化的,而是呈现明显的“分层”特征:一端是数据充分、可重复的战术决策(如库存补货、动态定价);另一端是信息稀缺、高度主观的战略决策(如技术路线、并购标的)。两类决策对自动化的容忍度、对智能体的能力要求以及对人类介入的依赖程度均截然不同。

决策层级与自动化关联

从决策的性质与复杂程度出发,可以将决策大致划分为战术决策和战略决策两类。自动化决策涵盖了从完全自动化到有人参与的多种自动化形式。当前,企业在推动决策自动化进程中呈现出明显的倾向性,即当决策的效益显著优于人工决策时,企业便会积极促使决策向自动化方向转变。

在战术决策领域,如证券交易、酒店收益管理、在线推荐系统以及广告竞价等方面,基于数据的自动化决策已经取得了令人瞩目的成功。这些应用案例充分证明了自动化技术在提升决策效率、降低成本以及优化资源分配等方面的巨大优势。然而,值得注意的是,部分涉及用户意图判断的战术决策,由于用户意图本身是一个难以单纯依据数据准确推断的复杂心理构造,目前仍然需要人工的深度介入与辅助判断。例如,在分析用户的点击行为序列时,很难精准判断该用户仅处于信息浏览阶段,还是已经具备明确的购买意图,这就凸显了人工判断在特定场景下的不可替代性。

战略决策智能体应用挑战与机遇

企业战略决策往往面临着更为复杂的挑战与机遇。以三个典型的企业决策问题为例,每个宏观决策问题背后都关联着一系列具体的原子问题。虽然大型语言模型(LLM)能够在一定程度上回答部分原子问题,但由于受到 AI - Centric User 范式的限制,它很难完全满足复杂战略决策的全方位需求。

如上图所示,用 8 个观察点总结了当前 AI 在企业战略决策中的真实处境:① 用户意图难以仅凭数据推断,仍需人工介入;② 在股票交易、酒店收益管理、在线推荐、广告竞价等战术决策上,自动化已取得显著成功;③ 对于典型的宏观战略决策,现有 AI 几乎束手无策;④ 业务人员必须先将战略问题拆解成若干“原子级”子问题;⑤ 这些子问题往往伴随关键信息缺口;⑥ 业界最新模型尝试用分解-规划-推理(DPR)思路去填补缺口;⑦ 但 LLM 只是机械模仿 DPR,并未达到可落地水准;⑧ 真正要让 AI 胜任战略决策,还需跨越巨大的概念鸿沟。

在判定技术成熟度这一问题上,LLM 可以凭借其在全球范围内收集的网络报告与评论等信息资源,提供相对全面且通用的回应。但在预测下月买家以及确定亏损商品等具体问题时,LLM 的通用全球知识就显得捉襟见肘。在传统业务流程中,企业通常会遵循类似于前文提及的工作流程来探寻答案。而在 LLM 应用场景下,企业需要向模型输入精准的客户细分信息、过往购买行为数据以及细分定义规则等详细资料,LLM 才能基于这些信息进行分析并给出建议,尽管这些建议可能并非完美无缺。

即便借助了分解、规划以及推理等多种先进操作(例如思维链、思维树等),LLM 也只能部分解决这些关键问题,其响应结果往往受限于 AI - Centric User 范式的天然局限。这为我们敲响了警钟,凸显了现有技术在应对复杂战略决策时的不足。而在更为宏观的战略决策层面,LLM 面临的挑战更为严峻。例如,在判定技术成熟度这一大问题时,企业内部对于该技术的研发实力评估、人力资本储备、技术资源与数据资源的配置情况、内部研发周期与成本核算等关键信息,往往是 LLM 无法获取的。此外,企业的战略决策还深受其内部目标(如防御性目标是为了维系现有客户群体,进攻性目标则聚焦于吸引新客户拓展市场份额)、主观判断与决策环境(包括内部技术与新旧技术的兼容性匹配度、企业对市场竞争态势的宏观认知以及从高层管理会议到与其他企业技术开发者交流过程中所形成的内部研究与保密性见解等)的综合影响。

在这样的复杂局面下,智能体要想在战略决策领域大显身手,就必须具备一系列关键特性。它需要敏锐地捕捉企业用户的学习偏好,深入理解用户动机类型(是侧重于预防风险的保守型动机,还是追求创新突破的进取型动机),精准把握企业内部不同部门与成员之间的合作与竞争关系,全面洞察企业与合作伙伴及竞争对手之间的协同与博弈态势。同时,智能体还应具备检测并缓解管理者在判断与决策过程中可能出现的认知偏差的能力,为企业提供更为科学、客观、全面的决策支持。

适合企业的智能体平台构想

基于上述分析,可提出一种围墙花园式平台构想,以实现平衡智能体自主性与市场机制的有效治理。

企业作为数据与知识资源的拥有者,必然需要防火墙技术来严密保护其珍贵的数据资产与知识库免遭泄露与侵害。然而,过度集中化的规划管理模式却可能引发一系列问题,例如:

  • 高沟通成本
  • 错误分配代理
  • 误归因反馈等

而围墙花园式平台,则是一种在企业内部或受控环境中运行的多智能体平台架构。它通过企业级防火墙把内部数据、知识库与外部网络隔离,确保敏感信息不会外泄;同时,在内部仍然保留一个类似市场的机制,让不同任务-专业智能体可以被用户自由发现、雇佣或替换。

在这种架构里:

  • 用户与智能体之间可以直接通信,减少中心化“规划者”带来的高沟通成本和误分配问题;
  • 规划者/平台仅负责宏观监督和激励分配(根据智能体自报性能、客观监控结果、用户反馈综合计酬),而不直接干预每一次任务执行;
  • 所有智能体及用户活动都在企业可控的“围墙”之内完成,既满足合规、保密需求,又保留了市场机制的竞争与创新活力。

简言之,“围墙花园”= 企业级安全隔离 + 内部市场化协作,既防止数据外泄,又避免过度集中化带来的效率损失。

围墙花园式平台巧妙地规避了潜在风险,它允许企业用户与智能体之间进行直接沟通交流,同时由规划者对智能体进行监督与管理,智能体则依据自身的性能表现声明、规划者对其表现的客观观察以及用户反馈评价等多种因素综合获得相应的报酬。

这种创新的平台模式不仅充分保障了企业数据的安全性与保密性,还极大地提升了用户与智能体之间的协作效率与互动质量,为智能体在企业决策中的深度应用开辟了新的道路。

总结

人与 AI 协同完成复杂任务,正从美好冤枉变为日常实践;智能体则是把这一愿景落地的核心载体。但落地并不容易——它要求我们先把“人类如何与智能体共生”这一抽象命题,拆解成可落地的技术方案与业务流程。本文提出的“六项原则”正是这样一份路线图:以用户代理(agency)与价值为核心,把 AI 嵌入企业决策、流程优化、战略规划的真实场景,而非反过来让用户适应 AI 的局限。

但,尽管文中已在 User-Centric AI 方面做了一些论述,还仍有许多关键的遗漏问题需要深入探索与解决:

1. 如何在联邦 or 分布式学习基础上,再向前一步,让用户对“哪一条数据、被哪一次训练、用于哪一类模型”拥有更细粒度的控制权?(企业级个人专家Agent RL?)

2. 如何设计市场机制,使智能体在“风险-回报”与“质量-价格”两个维度上形成连续档位,从而覆盖从保守到激进、从免费到高溢价的所有用户偏好?(连续偏好撮合引擎?多策略集?结算RWA代币化?)

3. 如何构建高保真沙箱,既能模拟不同智能体组织架构,又能生成海量真实用户画像,以便持续验证平台性能与体验?(拟真数据工程?)

我在括号了备注了可能的研发方向,希望能激发你的思考(我也期望与你交流)。上述问题的突破,将决定企业能否真正完成从 AI-Centric User(用户围着 AI 转)到 User-Centric AI(AI 围着用户转)的转变。届时,AI 不再只是“更聪明的工具”,而成为“懂流程、懂目标、懂边界”的同事;企业也不再为技术而技术,而是以更低成本、更高胜率做出每一次战术乃至战略决策。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值