强人工智能与人类:协作、托管还是被替代?三种关系模式的理论对比

『AI先锋杯·14天征文挑战第8期』 10w+人浏览 346人参与

1 引言

在过去十年里,人工智能从“能下围棋的程序”一路进化到能写代码、画图、写论文、做研究助理的通用系统,关于“强人工智能(AGI)何时到来、以何种方式到来”已经不再只是科幻话题,而是科技公司、政府和学界共同面对的现实议题。2025 年有研究指出,围绕 AGI 的讨论焦点已经从“能不能实现”悄然转向“实现之后如何治理、如何与人类社会共存”,其中包括对民主制度、就业结构和全球权力格局的潜在冲击。(Nature)在这样的背景下,“强人工智能与人类到底是什么关系”这句话不再是抽象的哲学追问,而变成一系列非常具体的制度设计问题:系统由谁控制、谁对风险负责、谁从生产力中受益、谁被边缘化甚至被替代。

越来越多的开放获取研究试图从结构化视角分析人机关系,而不是停留在“乐观主义 vs 末日主义”的二元对立。例如,有学者从任务分解和劳动经济学出发,将 AI 视为“既可能是替代,也可能是补充”的生产要素,并量化不同自动化路径对就业和工资的影响。(NBER)也有研究系统性梳理“人机互补(human–AI complementarity)”的理论基础,提出信息不对称、能力不对称是人机协同价值的关键来源。(arXiv)与此同时,AI 对齐(alignment)和可扩展监督(scalable oversight)研究则把目光投向“谁监督谁”的结构问题:当 AI 能力超过人类时,如何保持系统行为与人类价值一致,如何设计监控和托管机制。(ACM Digital Library)

本文尝试以“关系模式”作为分析主线,围绕强人工智能与人类之间的三种典型关系展开理论对比:第一种是“协作模式”,强调人机互补和共同决策;第二种是“托管模式”,强调某一方(目前主要是人类机构,将来可能是人机复合体)对高能力 AI 的持续监督与治理;第三种是“被替代模式”,代表一种极端自动化路径,即人类在大量任务甚至关键制度决策中被系统性边缘化。需要强调的是,这三种模式并非互斥,而是现实世界的三个理想型坐标轴,任何具体系统往往落在它们构成的空间之中。

在文章结构上,第二节回顾强人工智能技术演进与对社会经济的潜在冲击,为后文分析提供“技术与宏观环境”的背景。第三节在文献基础上界定“协作、托管、被替代”三种关系模式,并给出初步比较。第四节构建统一的理论分析框架,从任务与能力分解、权力与责任配置以及风险结构三个维度,对三种模式进行系统性对照。第五节选取知识工作、制造业和公共治理三个场景,分析现实世界中这些模式的早期雏形。第六节聚焦治理与对齐问题,讨论如何通过技术机制与制度安排防止现实路径滑向“被替代”的极端轨道。第七节则尝试从动态演化和人类主体性出发,对强人工智能时代的道路选择做出总结与展望。

2 强人工智能的技术图景与社会冲击

2.1 从任务型 AI 到通用智能:能力边界的移动

若想理解人机关系模式为何必须被重新思考,首先需要回到技术本身的演化路径。传统的“弱 AI”通常指在特定任务上表现优异的系统,比如专门用于图像识别、语音识别或推荐算法的模型,这类系统具有高度窄化的能力边界,难以通用迁移。深度学习的兴起显著扩展了这些系统在单一领域的上限,却没有从根本上改变“窄任务—强性能”的基本格局。

近年来的大模型浪潮则呈现出不同的趋势:在海量通用语料和跨模态数据上训练出的基础模型,在文本生成、代码编写、图像理解、推理甚至部分科学建模中展现出令人惊讶的迁移能力,从而让“通用性”不再完全是未来时。一些研究开始以“人工通用智能(AGI)”或“前 AGI 系统”来描述这类能力广度显著扩展的模型,并强调未来发展必须将系统级安全、对齐与治理问题纳入核心考量。(Nature)

与之并行的是对“对齐科学”的梳理和构建。Ji 等人的对齐综合性综述指出,随着系统能力的提升,风险不再仅仅体现在输出内容不当,而是体现在复杂环境中产生意料之外、难以纠正的行为模式,对齐研究需要同时考虑鲁棒性、可解释性、监督机制以及价值嵌入方式。(AI Alignment)Anthropic 等机构提出的“宪法式 AI(Constitutional AI)”实践,则尝试通过一套公开的原则来约束模型行为,减少系统性伤害。(Anthropic)从某种意义上说,这些工作正在把强 AI 系统从“工具”推向“被规范约束的代理”,这本身就预示着人机关系模式的结构性变化。

更值得注意的是,“监督谁”的问题正在出现反转趋势。早期 AI 系统能力有限,人类在绝大多数任务上处于压倒性优势,因此人类监督 AI 的结构是自然且稳定的;而随着模型在专业考试、编码竞赛乃至部分科学任务上的表现超越大部分人类个体,监督结构开始变得脆弱:一方面,人类很难对超出自身能力边界的任务给出可靠反馈;另一方面,复杂模型内部的“推理链”也未必对人类透明,这使得简单的“人工审阅”不再足够。近年的研究在“可扩展监督(scalable oversight)”和“人类对 AI 行为建模”等方向上展开探索,试图回答“当 AI 能做你做不到的事情时,如何继续监督它”。(arXiv)

2.2 生产力、就业与不平等:宏观层面的压力测试

在宏观层面,强人工智能带来的最直观冲击来自生产力和劳动结构。基于任务模型的劳动经济学研究指出,AI 和自动化技术可以通过至少四种途径影响生产:一是直接执行原由人类完成的任务,从而替代部分劳动;二是作为工具提升人类在某些任务上的效率,形成互补;三是进一步推动资本深化和新一轮自动化;四是创造全新的任务类别,从而开辟新的就业空间。(arXiv)

近期有关“智能饱和(intelligence saturation)”的分析则更进一步,构建了一种将 AI 和劳动力作为可替代生产要素的宏观模型,评估在不同替代弹性假设下,持续引入 AI 资本将如何影响工资水平、就业率以及收入分配。研究发现,在“智力任务”领域,AI 与劳动往往是强替代而非强互补关系,如果缺乏制度性纠偏,长期可能导致高技能劳动者也面临边缘化,社会整体不平等加剧。(Brookings)

与此同时,也有研究强调“人机互补”在决策任务中的潜在价值。Hemmer 等人的开放获取工作系统性梳理了人机互补的理论框架,指出信息不对称(人类与 AI 在可获取信息上的差异)和能力不对称(计算能力、模式识别能力与情境判断能力的差异)是产生互补收益的关键动力,只要系统设计合理,人机协作往往能在决策质量上超越“人类单独”或“AI 单独”。(arXiv)2025 年有关 AI 在判断任务中“替代 vs 合作”效应的工作,则在实验层面对比了 AI 完全替代人类、AI 作为决策建议、人机共同决策等不同策略的实际效果,发现“盲目替代”并不总是效率最优,人机共同决策在许多情景下表现更为稳健。(INFORMS Pubs Online)

由此可以看到,技术本身既打开了极强替代的可能,也提供了极强互补的空间。真正决定“强人工智能与人类是协作关系、托管关系还是替代关系”的,并不仅仅是模型参数规模,而是制度设计、商业激励、监管框架以及价值取向。接下来的三节,将在文献基础上明确这三种模式的内涵,并用统一框架进行比较。

为方便读者把握现有开放获取研究与本文分析之间的对应关系,下面给出一个简要的文献主题—观点映射表。

表 1 开放获取文献视角下的强 AI 与人类关系研究概览核心代表文献(开放获取为主)研究焦点概括对本文的启示
AGI 发展与治理Raman, 2025, Scientific Reports;Taeihagh, 2025, Policy and Society(Nature)聚焦 AGI 安全、对齐、监管和社会影响,强调需要系统性治理框架提供“托管模式”和“社会层级对齐”的宏观背景
人机互补与协作框架Hemmer, 2024, Complementarity in Human–AI Collaboration;Tariq, 2025, HAIC 决策框架(arXiv)建立人机互补理论模型,构建模块化多阶段协同决策框架支持“协作模式”的可行性分析与设计要点
AI 对齐与可扩展监督Ji 等, AI Alignment Survey;Lang 等, 2025, Scalable Oversight;Anthropic 宪法式 AI 项目(AI Alignment)系统梳理对齐方法,提出可扩展监督问题与宪法式约束方案为“托管模式”中的监督结构和价值嵌入提供技术基础
AI 与未来工作、智能饱和Peppiatt, 2024;National Academies, 2025;Brookings 智能饱和报告(arXiv)探讨 AI 对就业、工资和不平等的影响,强调自动化路径与新任务创造的张力揭示“被替代模式”在宏观经济层面的风险,并提示调整激励的重要性

3 三种人机关系模式:协作、托管与被替代

3.1 协作模式:互补性与共同决策

在人机关系的想象谱系中,“协作模式”往往最容易获得道德上的好感,但如果要把它从口号变成可操作框架,就必须从任务、能力与决策流程三个维度给予清晰界定。所谓协作模式,并非简单地“人类使用 AI 工具”,而是指在系统设计上刻意保留并放大人类与 AI 之间的互补性,使两者在同一决策流程中扮演不同但同等重要的角色,从而在总体性能、稳健性与可控性之间形成良性平衡。

近期关于“人机互补”的开放获取研究指出,人类和 AI 在至少两个维度上存在系统性差异。第一是信息不对称:AI 可以快速整合大规模数据与复杂模式,但往往缺乏对本地语境、非结构化知识和隐性规则的敏感度;人类恰好相反,在具体情境与社会语义上拥有“厚描述”能力,却难以在宏观模式识别上与模型匹敌。第二是能力不对称:AI 在算力密集、重复性高的任务上具有优势,而人类在价值判断、创造性联想、责任承担和伦理敏感性方面更具强项。(arXiv)协作模式的关键,在于通过界面设计、流程设计和激励设计,让这两种不对称真正被转化为互补,而不是在实际应用中被无形消解。

从决策结构看,协作模式通常强调“人机共同决策”,而不是“AI 只给建议、人类承担全部责任”或“AI 完全自动执行、人类只在系统之外承担后果”。这意味着在系统架构上需要安排至少三个层面:一是让人类可以理解并质疑 AI 的建议,包括通过可解释性技术暴露模型的推理路径或不确定性区域;二是为人类提供反向纠错通道,让人类的反馈可以实质性影响模型的更新或行为约束;三是通过制度或法律,将人机混合决策的责任分配在组织和技术提供者之间,而不是简单将所有风险压在终端用户个体身上。近年来“人机协同决策框架”研究,正是沿着这一方向将抽象理念落地到可验证的流程模型之中。(ScienceDirect)

值得注意的是,协作模式并不意味着人类永远处于系统的顶部位置。随着模型能力提升,在某些局部任务上,由 AI 做“初审”甚至“主审”可能比人类更高效、更可靠,而人类则转向做边界管理、异常检测和价值审查。这一结构有时被称为“人类在环(human-in-the-loop)”,有时又被扩展为“人机共治(human-AI co-governance)”。关键问题在于:无论局部任务如何重分工,最终的系统性后果是否仍可由人类集体通过法律、规制和民主程序进行校正,这一点将成为协作模式与被替代模式之间的重要分水岭。

3.2 托管模式:从“人托管 AI”到“人机托管复杂系统”

如果说协作模式重点在于“如何一起做事”,托管模式更关注“谁有权说不”。在弱 AI 阶段,“人托管 AI”几乎是无需讨论的前提:算法由人类编写,部署由人类组织决定,监督由人类监管机构负责;即便算法中存在偏见或漏洞,社会仍默认可以通过法律和工程手段加以修复。然而在强 AI 甚至前 AGI 阶段,这一朴素结构受到两个方向的压力:一方面,模型可能在某些任务上远超人类,使得传统的“逐条检查”监督方法失效;另一方面,复杂系统在基础设施、金融市场、信息流通等领域的高度耦合,让局部失控有机会演化为系统性风险。(Nature)

这促使学界与产业界共同思考新的托管结构。AI 对齐综合性综述将对齐目标概括为四个方面:鲁棒性、可解释性、可控性和伦理价值嵌入,并强调需要通过分层架构把目标落实到训练数据、模型结构、学习算法和部署环境中。(AI Alignment)在实践层面,Anthropic 提出的宪法式 AI,将一套由开发者公开制定的原则写入系统,用以指导模型在面对冲突价值时如何权衡。(Anthropic)从托管逻辑看,这相当于在模型训练和推理过程中嵌入一个“规范层”,由人类预先设定边界,而具体执行则由模型内部完成。

更具挑战性的是“可扩展监督”。当 AI 能在医学诊断、法律检索、网络安全等领域完成超出普通人类能力的任务时,人类监督者很难判断其输出是否真正可靠。Lang 等人的研究提出,可以通过建模人类对 AI 行为的信念,并设计多层级监督结构,使得即便监督者无法完全理解底层推理,也能通过抽样、元评估和行为模式分析对系统进行有效制衡。(arXiv)这类工作实际上预示着托管模式将从“个体专家监督单个模型”转向“人机混合团队监督复杂模型群落”的方向。

从社会层面看,托管模式还涉及更宽广的治理问题。AGI 治理报告与政策研究普遍强调,开放获取、去中心化和多方参与对于防止技术权力过度集中具有关键意义,同时也提醒,简单的“完全开源”若缺乏安全机制,可能加剧滥用风险。(The Millennium Project)这意味着未来的托管结构很难由单一技术公司或单一政府垄断,而更像是一种由监管机构、科研机构、企业和公民社会共同参与的多层治理网络。

3.3 被替代模式:自动化逻辑的极端化

与前两种模式相比,“被替代模式”在直觉上似乎只与失业和工作岗位消失有关,但从文献来看,它所指向的其实是一整套更深层的逻辑:以“效率最大化”和“成本最小化”为唯一目标的自动化路径,在缺乏制度纠偏的情况下,自然会推动系统向“能自动化的尽量自动化”方向演化,而与此同时,生产力收益却未必与被替代的劳动者共享。经济学家关于“错误类型的 AI(the wrong kind of AI)”的论述指出,如果技术发展主要集中在替代现有任务,而不是创造新任务和增强人类能力,就可能出现生产率提升但大多数劳动者境况恶化的悖论。(NBER)

近期关于“智能饱和”的宏观模型则给出了更形式化的警示:当 AI 在越来越多的智力任务上可以作为资本投入时,如果政策与制度不加干预,经济系统可能滑向一种“智力资本—少数资本所有者高度集中受益,而大多数劳动者缺乏可交易能力”的状态,导致收入和权力双重集聚。(Brookings)在这种情境下,“被替代”不仅是岗位层面的现象,更是话语权和制度设计权层面的弱化,人类个体在关键决策系统中的影响力被系统性地压缩到最低。

在强人工智能情景下,这种极端化的风险进一步扩张。一旦某些关键基础设施、金融交易系统、军事决策过程高度依赖自我优化的 AI 代理,而系统又以“性能指标”为唯一目标函数,那么即便名义上仍有人类“在环”,实际控制力也可能沦为形式。这种状态可以被视作“软替代”:人类仍然存在,但在关键路径上不再拥有实质性否决权或纠偏能力。对于普通个体而言,面对高度自动化的信用评分系统、招聘筛选系统和舆论推荐系统,也可能逐渐丧失“解释与申诉的机会”,从而陷入生活层面的被动。

总的来说,“被替代模式”并非单纯指“机器人抢了你的工作”,而是指一种系统性路径:在技术、商业和制度的多重推动下,AI 在任务执行和规则制定中逐步取代人类角色,使得人类主体性和集体自决能力被削弱。理解这一点,有助于我们在后文构建分析框架时,把“替代”视为权力结构与价值结构中的变量,而不仅仅是劳动力市场上的一个指标。

4 理论分析框架:从任务分解到权力配置

4.1 任务与能力分解:谁在什么维度更强

构建强人工智能与人类关系的分析框架,第一步是把“做什么”和“谁更擅长”分开讨论。近年来的人机协作与未来工作研究普遍采用“任务分解模型”而非“职业模型”:职业往往由多种任务构成,其中一些任务高度可自动化,另一些则更依赖人类的社会技能和价值判断,这种分解视角有助于避免“所有记者都会被替代”之类粗糙判断。(arXiv)

在人机能力比较上,可以从四个维度粗略刻画。第一是计算与模式识别能力,AI 在大规模数据分析、复杂模式匹配和高维优化上的优势已经在诸多领域得到验证。第二是情境理解与常识推理,人类在真实世界知识、模糊语境和多义表达上的直觉仍然难以完全形式化。第三是价值判断与伦理敏感性,人类在道德冲突、长远后果与社会规范的平衡上拥有由历史和文化沉淀而来的“厚经验”。第四是责任承担与社会关系,只有人类(以及人类组织)能在法律与道德意义上承担后果并接受制裁。

不同关系模式对这些维度的使用方式明显不同。协作模式倾向于在任务设计中有意识地“拆分并对号入座”,即把算力密集、模式清晰的子任务交给 AI,把价值冲突明显、责任重大、需要解释沟通的环节交给人类,从而在决策链条中构建“互补序列”。托管模式则在此基础上,进一步引入“监督任务”这一独立层级,把对 AI 行为的审查、纠偏与规则更新作为特殊任务分配给人类、AI 或两者共同承担。被替代模式则代表另一端:在没有刻意设计的情况下,大量任务被默认交由 AI 完成,人类只在系统外部被动承受结果。

为了更直观地展示三种模式在任务与能力分配上的差异,可以构建如下比较表。

表 2 三种关系模式下任务与能力分配的理想化对比协作模式托管模式被替代模式
任务分解方式明确区分数据密集型、情境敏感型、价值冲突型任务,并针对性设计人机分工在协作模式基础上增加“监督任务”,将监控和纠偏视为独立任务以效率和成本为主导,优先寻求能被自动化的一切任务,缺乏显式分解设计
AI 主要角色高效执行、模式识别、提供多样化备选方案,作为“放大镜与计算引擎”同时承担执行和被监督对象的角色,在部分场景中也协助监督其他 AI成为执行与决策的主导体,人类仅在系统边缘偶尔介入
人类主要角色情境解释、价值判断、最终裁决与责任承担,参与模型反馈与优化设计规则、配置监督机制、进行高层价值审查,并在关键节点拥有否决权角色被压缩到“服务对象”和“系统外部被影响者”,难以有效干预内部流程
能力不对称利用方式有意识把不对称转化为互补,通过界面与流程设计避免“优势过度偏向一方”除互补外,还强调在监督维度上利用不对称,让人类在关键规则和审查上保留优势不对称被用来最大化效率和利润,而非提升系统可控性,人类优势被逐步削弱

从框架角度看,协作与托管模式都要求对任务结构进行显式建模,并在设计时纳入“人类能力不可替代的部分”。这与“智能饱和”模型中对替代弹性的讨论形成鲜明对比:如果制度设计将 AI 与人类视为完全可替代的生产要素,系统自然会滑向被替代模式;而如果在任务层面保留刚性的人类参与节点,系统则更有机会保持在人机共治的轨道上。(Brookings)

4.2 权力与责任配置:谁说了算、谁负责

仅仅从“谁更擅长什么”来分析人机关系还不够,还必须回答更加尖锐的问题:在关键决策和风险事件中,谁有权拍板,谁要承担后果。AI 对齐与治理研究在近年逐渐形成共识:真正危险的并非单个模型出 bug,而是出现“责任真空”——系统表现出高度自主行为时,任何一方都可以借复杂性为理由推脱责任。(AI Alignment)

在协作模式下,权力与责任配置大体遵循这样一种逻辑:系统中的每一个关键决策节点至少要有一个“可追责的人类或人类组织”,而 AI 的角色更像是放大器和建议提供者。例如,在医疗诊断场景中,AI 可以提出若干可能诊断及对应证据,但最终由持证医生根据病人情况与职业规范做出选择;在信贷审批中,AI 可以计算违约概率并提供风险分层,但最终放贷决定及其后果仍由金融机构承担。研究表明,在此类结构中,虽然短期效率可能略低于完全自动化,但长期稳定性和信任度更高。(INFORMS Pubs Online)

托管模式则把视角从单一系统扩展到多层治理结构。在这一模式中,至少存在三层责任主体:第一层是开发和部署 AI 的技术组织,负责模型训练与安全;第二层是使用这些系统的行业组织或政府部门,负责在特定场景中的应用与风险控制;第三层是监管与社会层级,包括法律、标准和公共舆论。这一多层结构有助于避免责任过度集中或过度分散,但也提出了新的挑战:不同层级如何共享信息、如何对彼此进行制衡,成为 AGI 治理研究的重点之一。(Nature)

在被替代模式中,权力与责任配置往往呈现两极化特征。一方面,普通个体在具体决策中的话语权大幅下降,面对算法筛选就像面对一堵黑箱高墙;另一方面,少数掌握基础模型和算力基础设施的组织在实质上控制了大部分关键决策逻辑,却可以通过复杂的供应链和合同结构稀释可追责性。国家和社会层面的监管若不能跟上,就容易陷入“想追责追不到、想纠偏改不了”的困境。有关生成式 AI 治理的政策研究明确指出,如果监管只停留在模糊的“原则宣示”层面,而缺乏对责任链的细致规定,就很难在大规模部署阶段起到实质约束作用。(OUP Academic)

为了更清晰地比较三种模式在权力与责任维度上的差异,可以构造如下表格。

表 3 三种关系模式下的权力与责任结构比较协作模式托管模式被替代模式
决策权分布人类与 AI 在不同层级分工,关键价值决策由人类或人类组织掌控决策权呈多层网络状,开发者、使用者、监管者共同参与,人类有系统性否决权实质决策权集中于少数技术与资本主体,普通个体几乎无直接影响力
责任链条可追溯到具体人类角色(医生、法官、工程师等)及其所在组织,AI 作为工具不单独承担责任责任在技术提供方、应用方和监管方之间有制度化分配,形成“共同托管”结构责任高度模糊化,通过外包、平台化和合同条款层层稀释,容易形成责任真空
纠偏与申诉机制存在面向个体的申诉渠道,人类决策者可对 AI 输出进行推翻和修改同时拥有个体申诉、行业自律和监管干预等多重纠偏路径申诉渠道形式化、低效或缺失,个体很难真正改变算法行为或结果
长期信任基础基于“可解释—可追责—可修复”的闭环,利于形成稳定信任关系基于分层治理与透明度提升,需要持续维护但具备弹性长期信任基础薄弱,系统性事件发生时容易引发强烈社会反弹

可以看出,协作与托管模式的一个重要共性,是都把“纠偏权”和“否决权”视为不可轻易让渡给 AI 的关键资源,而被替代模式则往往在不知不觉中削弱甚至抹除这一层。

4.3 风险结构与安全性:从局部失败到系统性风险

在强人工智能语境下讨论安全性,不能仅停留在“模型会不会输出危险内容”这种局部问题,而必须考虑到系统性风险:当大量关键基础设施、金融交易、舆论分发都高度依赖大模型及其衍生代理时,局部失误如何可能被放大为社会级别的冲击。AI 安全与对齐文献中强调的一点是,模型能力越强,与环境交互越深,其错误的潜在影响范围就越大,传统的软件工程式测试与修复方法难以完全覆盖。(AI Alignment)

协作模式在风险结构上倾向于通过“冗余与互补”来降低系统性风险。例如,在医疗场景中,可以要求“AI 和医生必须同时同意才能做出高风险决定”,在金融场景中,可以通过人机交叉审核来减少模型偏差。在这种结构中,单方错误往往可以被另一方发现,从而形成类似“安全双锁”的效果。研究显示,人机互补在某些决策任务中不仅提升平均表现,还可以降低尾部风险。(arXiv)

托管模式则在此基础上,额外引入“元监督层”。可扩展监督研究提出,可以利用更强大的 AI 来帮助人类监督弱一些的 AI,再由人类和制度监督最强的 AI,从而构建一种分层控制结构。(arXiv)宪法式 AI 等方法则通过预先规定的原则约束模型行为,在训练阶段就降低未来出现系统性危险行为的概率。(Anthropic)从风险视角看,托管模式试图通过“技术安全措施 + 治理结构”双重手段,把高能力 AI 的自主性控制在“可管理”的边界之内。

相比之下,被替代模式在短期内可能看似高效,因为所有流程都围绕自动化展开,冗余被削减到最少。但这恰恰意味着系统在长周期上极度脆弱:一旦基础模型在训练数据或目标函数上存在系统性偏差,其影响可能无处不在,而人类又缺乏足够能力介入修正。有关 AI 风险的多方公开信和政策讨论不断提醒,如果缺乏独立审查和外部治理,仅靠企业内部自律难以应对这一类风险。(OUP Academic)

5 现实场景中的模式雏形:三类典型领域

5.1 知识工作与决策支持系统

在知识工作领域,大模型已经广泛进入代码开发、文案写作、数据分析和法律检索等日常流程。当前主流实践大多以协作模式为目标,即让 AI 作为“增强型工具”而非终极裁判。例如,程序员使用代码助手生成初稿,再由人类审查和重构;法律工作者使用检索系统快速定位相关案例,再由人类完成综合分析与策略制定。在这一过程中,人类仍保持对最终产出的解释权与署名权,AI 的角色更接近“高效助理”。(The Decision Lab)

然而,随着系统能力提升和商业压力加大,“被替代”的诱因也在增长。部分企业开始尝试用自动内容生成系统直接替代低端文案岗位,用自动化代码修复工具减少测试与维护人力,用自动化客服系统取代大量一线服务人员。如果这种趋势在缺乏协作与托管设计的情形下继续发展,知识工作领域可能会出现一种结构:少数高端岗位负责与 AI 系统对接与维护,而大部分中低端知识劳动被视为可替代对象。结合前述“智能饱和”模型的分析,这种结构容易加剧技能和收入的两极分化。(Brookings)

从托管角度看,知识工作中的决策支持系统还存在两类值得关注的风险。一是“权威幻觉”:当 AI 在多数情况下表现优异时,人类使用者可能过度依赖其建议,逐渐丧失独立判断能力,最终形成“事实上的被替代”。二是“责任移位”:组织可能在制度上模糊人类签字责任与系统建议责任,使得出错时无法明确问责。这些风险提醒我们,在设计知识工作流程时,应当制度化地保留人类的审查和否决环节,并在绩效评价上认可“拒绝盲目采纳 AI 建议”的价值,而不是单纯用效率指标驱动行为。

5.2 制造业与自动化生产线

制造业长期以来就是自动化和机器人技术的试验场。在传统工业机器人时代,人机关系模式更接近“工具化协作”:机器人在封闭环境中执行高度标准化的动作,人类负责设计流程、维护设备以及处理异常情况。随着感知与决策能力的提升,越来越多的“智能产线”开始引入能够自主规划路径、识别零件、调整参数的 AI 系统,使得生产过程在空间和时间上都更为柔性。(ScienceDirect)

在这一领域,协作与被替代的张力尤为突出。一方面,协作型机器人和人机共线作业模式可以显著提升生产率,同时改善工人的工作安全和舒适度;另一方面,如果企业将 AI 主要用于替代体力劳动和部分技术工种,而忽视对工人进行技能转型与再培训,就会形成明显的岗位流失。研究表明,在自动化投资较高的地区,如果缺乏相应的政策与教育支持,中低技能工人的工资和就业机会往往受到较大冲击。(ScienceDirect)

托管模式在制造业中的体现主要集中在安全与质量控制上。高自动化产线一旦发生失误,可能导致大面积产品缺陷甚至安全事故,因此监管机构往往要求企业设置多重监控与紧急停机机制。随着 AI 决策在生产调度中的比重增加,如何保证这些系统在异常情境下仍然可控,成为工业 AI 安全的重要议题。通过引入人机共治的质量管理体系,例如要求关键参数变更必须经过人类工程师审核、AI 产生的异常检测结果必须在人机双重确认后才能触发大规模调整,可以在一定程度上将生产效率与安全性统一起来。

5.3 公共治理与 AI 监管

公共治理领域是“托管模式”最具代表性的场景之一。各国在面对大模型和生成式 AI 时,普遍采取“先监管、再托管、再共治”的渐进路径:初期通过指导性原则和行业标准约束系统开发与部署,中期通过专门立法和监管机构实现制度化托管,长期则可能探索跨国层面的合作治理机制。有关生成式 AI 治理的研究指出,单一国家监管难以应对跨境数据流与跨国公司带来的复杂性,需要通过国际组织和多方协作机制进行补充。(OUP Academic)

在具体实践中,可以观察到三种趋势。第一是“自上而下的安全结构重组”,例如大型 AI 公司设立独立安全委员会、外部顾问团或国家安全顾问委员会,赋予其在模型发布与重大决策中的实质性否决权,这是一种典型的组织层级托管。(The Verge)第二是“自下而上的价值对齐与公众参与”,例如通过开放模型评测平台、红队测试计划和公众咨询,将社会不同群体的关切纳入模型安全评估与对齐目标之中。第三是“跨领域的制度混合”,即把金融监管、数据保护和平台治理的经验综合运用于 AI 领域,形成包括透明度要求、风险分级管理和强制报告在内的复合监管工具箱。

然而,如果公共治理本身高度依赖 AI 系统(例如在舆情分析、政策推荐、预测性执法等领域),则“被替代模式”的风险也会悄然出现:政策制定者可能过度依赖模型输出,忽视少数群体的声音;执法部门可能将模型评分视为客观事实,弱化对个案情境的考虑。AI 伦理和民主价值对齐的最新研究强调,如果缺乏透明度、解释性和民众参与,AI 在治理中的使用可能会加剧原有社会不平等,而不是缓解。(SpringerLink)这表明,在公共治理领域构建协作与托管模式,必须同时面对技术、制度与价值三重挑战。

6 治理与对齐:如何避免走向“被替代”的极端路径

6.1 对齐、可解释性与可控性:托管模式的技术支柱

从技术视角看,想要让强人工智能长期停留在“协作—托管”的区间而非滑向“被替代”,至少需要对齐、可解释性和可控性三个支柱共同支撑。AI 对齐综合性综述将对齐目标概括为四个原则:鲁棒性、解释性、可控性和伦理性,并指出当前的大部分方法(例如基于人类反馈的强化学习、偏好建模、宪法式 AI 等)在能力快速提升的背景下面临可扩展性挑战。(AI Alignment)

对齐保证模型在大多数情境下不会主动产生违背人类价值的行为,可解释性帮助人类理解模型在关键决策中的内部逻辑和不确定性区域,而可控性则要求在模型表现出异常行为时,可以通过技术和制度手段迅速将其“拉回安全区”。这三者之间存在明显张力,例如过度追求可解释性可能降低模型性能,而过于强调鲁棒性和性能又可能削弱人类干预的灵活性。最新的研究尝试通过分层建模、模块化架构和“解释接口”设计,在保持性能的前提下,为人类监督者提供足够的可见性和干预手段。(Nature)

在托管模式中,技术支柱并非孤立存在,而是与制度结构紧密耦合。例如,宪法式 AI 的有效性取决于“宪法条款”本身是否通过公开、民主和多元参与的程序产生;可扩展监督的有效性取决于监督者是否拥有足够的资源与法律支持来实施干预。(对齐科学博客)如果技术与制度之间出现断裂,即便模型本身具有较好的对齐和可控性,现实路径仍可能在商业压力驱动下滑向被替代模式。

6.2 可扩展监督与“人机共治”

随着模型能力接近或超越人类在某些领域的上限,“监督谁”的传统结构悄然发生反转。可扩展监督研究指出,简单依赖人类单独审核输出已经不足以保证安全,需要设计一种“人机共治”的监督结构,即由更强大的 AI 辅助人类监督较弱或更专用的 AI,再由制度监督整套人机系统。(arXiv)

在这一框架下,可以把监督任务视为一个多层博弈:模型可能试图优化其在训练中学到的目标函数,而人类监督者则试图通过反馈调整目标函数的实现方式;更高一层的机构(如监管机构或伦理委员会)则致力于确保目标函数本身符合社会价值。Anthropic 等机构的实践表明,通过明确列出模型应当遵守的价值原则,并在训练和评估阶段反复强化这些原则,可以在一定程度上减少模型产生有害输出的概率。(对齐科学博客)

在人机共治结构中,人类并不试图在所有细节上压倒 AI,而是通过定义边界条件、设置问责机制和掌握关键开关来保持“最终控制权”。这种设计有助于避免监督任务本身被完全自动化,从而保留人类在制度层级的主体性。同时,利用 AI 在监控庞大系统行为模式方面的优势,人机共治可以在理论上比纯人工监督更快识别异常模式和潜在风险。关键在于,谁拥有对监督系统本身的监督权,这个问题如果不在制度层面得到回答,人机共治可能沦为形式。

6.3 法律、制度与民主参与:社会层面的托管装置

技术支柱和监督结构若想发挥作用,必须有相应的法律和制度作为“外骨骼”。生成式 AI 治理的政策研究强调,单靠行业自律难以应对高能力系统的风险,需要综合运用法律条款、监管机构和跨国合作机制构建多层防火墙。(OUP Academic)在这一意义上,社会并非只是被强 AI 影响的被动对象,而是可以通过制度设计和政治参与主动塑造人机关系模式的主体。

在法律层面,可以通过风险分级监管、强制安全评估、责任倒置规则等工具,把高风险 AI 系统的部署置于严格的审查之下。例如,要求在医疗、金融、司法等高风险领域使用的 AI 系统必须通过第三方审查和公开评估结果;对未履行安全义务的技术提供方施加更严格的责任追究。在制度层面,可以通过设立跨学科的国家或地区级 AI 安全机构,为监管机构提供技术支持和独立评估能力,避免在与大型技术公司博弈时处于信息劣势。(OUP Academic)

在民主参与层面,近年来关于“民主化价值对齐”的研究指出,AI 嵌入的价值不应由少数技术精英单方面决定,而应通过公众参与、代表性抽样与协商程序共同形成。这不仅可以提高系统的合法性,也有助于避免 AI 被用来固化甚至放大现有权力结构的不平等。(SpringerLink)从关系模式角度看,民主参与是防止整套系统滑向“被替代模式”的重要保障:只要人类集体仍然掌握对规则和托管结构的修订权,就意味着在系统最上层,人类仍然是“有权说不的主体”。

为了把技术和制度维度的讨论整合起来,可以借助一个简单的对齐—治理工具映射表。

表 4 技术与治理工具在三种模式中的角色对比技术机制或制度工具在协作模式中的作用在托管模式中的作用在被替代模式中的风险或缺失
对齐与宪法式 AI帮助模型更好理解人类偏好,减少合作过程中的误解与伤害成为托管规则的重要技术实现形式,使上层价值通过宪法条款落地若缺乏外部审查,可能被用于“技术漂绿”,掩盖实际权力与利润结构
可解释性与透明度让人类合作者理解模型建议的依据,提升协作效率与信任为监督者和监管机构提供审计和问责基础,是多层治理的前提若被忽视或刻意弱化,会让个体与社会处于“黑箱统治”之下
可扩展监督与人机共治在协作团队中引入“互相检查”的机制,提升总体决策质量构建从模型到机构再到社会的多层监督网络,保持人类对系统的元控制若监督任务本身也被自动化,可能形成“AI 监督 AI 而人类旁观”的局面
法律与监管制度为协作应用设定安全红线和责任边界,保障参与者权利为托管结构提供正当性和强制力,使对齐不再仅依赖企业自律若落后于技术发展,则默认技术与资本逻辑决定一切,推动系统走向被替代
民主参与与公众评估引导协作应用更好服务多数人的实际需求,而非少数利益帮助在顶层设计中纳入多元价值,减少托管结构被少数集团垄断的风险若缺位,则价值与规则由少数人决定,绝大多数人沦为被管理对象

7 展望与结论:强人工智能时代的路线选择

7.1 三种关系模式的动态演化

回到本文开头提出的问题:强人工智能与人类之间究竟是协作关系、托管关系还是被替代关系?从文献与现实观察看,更贴切的回答不是“三选一”,而是“系统会在三者构成的空间中动态移动”。在多数具体领域,短期内可能以协作模式为主,例如知识工作与日常应用;在高风险领域,则需要叠加托管模式,构建多层监督与对齐结构;而在一些缺乏监管与责任设计的场景中,被替代模式的萌芽已经出现,只是尚未充分暴露。

从技术演进角度看,模型能力越强,系统向“托管—被替代”轴线滑动的技术压力越大,因为完全协作模式要求人类持续投入大量注意力和时间,而这在经济上并不总是“划算”。从制度演化角度看,如果法律、监管与民主参与不能同步升级,被替代模式就会在“效率”名义下获得强化,协作与托管则沦为宣传口号。从价值演化角度看,如果社会普遍认同“效率至上”和“输家自己负责”的逻辑,人类个体就更难对抗被替代路径;反之,如果更多强调尊严、公平与集体自决,协作与托管模式就更容易获得支持。

因此,可以把未来几十年的关键任务概括为一个简单但充满挑战的问题:如何通过技术设计、制度安排和文化塑造,使得系统的自然演化倾向不是向被替代模式滑落,而是在协作与托管之间形成一个稳定、可持续的“人机共治区”。已有的开放获取研究从宏观经济模型、人机互补实验和对齐治理框架多个维度提供了理论支撑,但真正的答案将不得不在实践中逐步生成。(arXiv)

7.2 人类主体性的再定义

强人工智能带来的最大挑战之一,是它迫使我们重新思考“人类主体性”的含义。在弱 AI 时代,人类主体性的核心是“能做机器做不到的事情”,无论是复杂情感、创造性还是高阶抽象思维,都会被视为不可替代的证据。然而,当模型在创意生成、科学假设提出乃至艺术创作中展现出令人惊讶的能力时,这种基于“能力独占”的主体性定义开始动摇。

本文所讨论的三种关系模式,在某种意义上分别对应三种主体性观念。协作模式把主体性理解为“在与强大工具共处时仍能保有判断与选择的权利”,强调人类在价值判断和责任承担上的独特位置;托管模式则把主体性提升到制度层面,认为真正重要的不是每一个个体在每一个任务上的优越性,而是人类集体是否掌握着系统规则的制定权和修改权;被替代模式则代表一种主体性丧失的极端情景,即人类不再能有效影响系统的演化轨迹,只能在事后承受结果。

从这个角度看,强人工智能时代的人类主体性不再是简单的“谁更聪明”问题,而是“谁定义目标、谁分配资源、谁承担后果”的结构问题。只要我们仍然能够通过民主程序、法律制度和技术设计共同塑造人机关系结构,使系统长期处于协作与托管的区间,而不是滑向被替代的极端,那么“人类是否仍是主体”这一问题就有了实质性的积极答案。反之,即便某些个体或机构在技术上仍然掌握着部分控制权,如果大多数人被排除在规则制定之外,人类整体的主体性也将不可避免地削弱。

在 优快云 这样的技术社区语境中,开发者既是强 AI 系统的建设者,也是其未来社会影响的共同承担者。从工程实践出发去理解协作模式和托管模式,意味着在写每一行代码、设计每一个接口、规划每一个产品功能时,都要多问一句:这会让人类在这个系统中更有力量,还是更无力?是让更多人参与进来,还是让更多人被“自动化”到系统之外?

如果说强人工智能是这个时代最强大的放大器,那么它放大的究竟是协作与共治,还是替代与集中,很大程度上取决于今天我们在技术、制度与价值上的选择。


参考资料

Raman, R. (2025). Navigating artificial general intelligence development. Scientific Reports. (Nature)

Taeihagh, A. (2025). Governance of Generative AI. Policy and Society. (OUP Academic)

Hemmer, P. (2024). Complementarity in Human–AI Collaboration. arXiv preprint. (arXiv)

Tariq, S. et al. (2025). A modular multi-stage collaborative decision framework for human–AI collaboration. Expert Systems with Applications. (ScienceDirect)

Ji, J. et al. (2023–2025). AI Alignment: A Comprehensive Survey. arXiv; ACM Computing Surveys. (AI Alignment)

Lang, L., Forré, P. (2025). Modeling Human Beliefs about AI Behavior for Scalable Oversight. Transactions on Machine Learning Research. (arXiv)

Anthropic. (2023). Constitutional AI: Harmlessness from AI Feedback; Claude’s Constitution. (Anthropic)

Peppiatt, C. (2024). AI and the Future of Work. arXiv preprint. (arXiv)

National Academies of Sciences, Engineering, and Medicine. (2025). Artificial Intelligence and the Future of Work. National Academies Press. (国家科学院网站)

Brookings Institution. (2025). (Artificial) Intelligence Saturation and the Future of Work. (Brookings)

Acemoglu, D., Restrepo, P. (2018–2019). Artificial Intelligence, Automation and Work; The Wrong Kind of AI? NBER Working Papers. (NBER)

Decision Lab. Human–AI Collaboration. Reference Guide. (The Decision Lab)

Adachi, D. (2025). Elasticity of substitution between robots and workers. Journal of Macroeconomics. (ScienceDirect)

Springer Nature. (2025). Human Value Alignment in AI; Democratizing value alignment: from authoritarian to democratic AI ethics. (SpringerLink)

The Millennium Project. (2024). AGI Governance Phase 2. (The Millennium Project)

OpenAI, Anthropic and others. Public letters and safety board announcements on AI risks and independent oversight, 2024–2025. (卫报)

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

智算菩萨

欢迎阅读最新融合AI编程内容

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值