本文主要基于 T. J. Mateo Sanguino 发表于 Artificial Intelligence Review 的文献《The Pygmalion effect in AI: influence of cultural narratives and policies on technological development》进行综合性总结与归纳,可供读这篇文献的研究者参考。
目录
3.5 科研–电影–立法之间的统计关系:回归与 Granger 因果
1 引言
近年来,以大模型和多模态生成技术为代表的人工智能快速普及,一方面带来了生产力和知识创造方式的巨大跃迁,另一方面也持续激发着关于“失控”“失业”“替代人类”的焦虑。威胁概率被不同研究估计在 5%–50% 之间,这种高度不确定性,使得社会想象、媒体叙事和政策监管在很大程度上左右着公众对 AI 的态度,也在潜移默化地影响着技术发展的路径。
如果把人工智能看作一个典型的社会–技术系统,那么它的历史就不仅仅是算法、算力和数据的演进史,也是一部“期望史”:社会如何期待 AI、文化作品如何描绘 AI、政府如何以法律的形式固化这些期望,都会反过来塑造研究者的选题、产业的投资方向,甚至某些“危险方向”是否会被扼杀在萌芽状态。用社会心理学中的术语来说,这正是“皮格马利翁效应”(Pygmalion effect)与“戈勒姆效应”(Golem effect)在技术领域中的外化:积极的期望会放大表现和投入,消极的期望则可能通过限制与防范,抑制某些发展路径。
围绕这一核心思想,相关研究尝试把三个看似分散的维度——人工智能科研产出、电影中的 AI 形象以及各国 AI 法律政策——统合到同一个分析框架下:一方面,通过大规模文献计量分析和影片数据库挖掘,刻画技术发展与文化想象之间的共振;另一方面,通过对全球主要 AI 政策时间轴的梳理和统计方法(线性回归与 Granger 因果检验)的使用,考察科研、电影和立法之间是否存在具有时间滞后的“预测性关系”。
这类研究的意义在于,它并不把 AI 的未来视为由少数技术精英决定的线性过程,而是强调一个多主体博弈结构:研究者、影视创作者、媒体机构、公众舆论、跨国企业、立法机构,都通过各自的叙事和决策,把对 AI 的不同期待写入技术本身。理解这种多层级的“期望结构”,有助于我们在面对生成式 AI 的快速扩散时,不仅讨论性能指标和商业模式,也能从文化与制度层面反思:哪些叙事正在放大某些方向,哪些恐惧又在以戈勒姆效应的形式,推动或拖慢 AI 治理框架的成形。
下面的内容将从理论与技术基础入手,依次介绍皮格马利翁效应在 AI 语境中的扩展、研究所采用的文献计量与统计方法,并在此基础上系统梳理“科研–电影–立法”三者之间的耦合关系,试图给出一个兼具理论深度和经验支撑的分析框架。
2 理论基础与概念框架
2.1 皮格马利翁效应与戈勒姆效应:从课堂到技术社会
“皮格马利翁”一词来自古希腊神话:雕刻家 Pygmalion 痴迷于自己雕刻的象牙少女 Galatea,女神阿佛洛狄忒遂让雕像获得生命,最终与雕刻家相伴。这则故事象征着创造者对作品的热切期待可以“唤醒”作品本身,从而产生超出原本设想的结果。
20 世纪 60 年代,Rosenthal 与 Jacobson 在教育场景中系统化了这一概念:当教师被暗示某些学生“潜力更大”时,这些学生的成绩往往真的会显著提升,原因是教师投入了更多的关注、鼓励和资源,由此形成一种“自我实现的预言”。此后,皮格马利翁效应被广泛应用于组织行为、管理学和社会心理学,用以解释期望如何通过一系列中介环节影响终局表现。
与之相对,戈勒姆效应则强调负面期望的自我实现:当个体被持续灌输“你做不到”“你会失败”之类的信念时,其自我效能感被削弱,行为投入随之减少,最终确实表现不佳。在技术领域,如果公众和决策者对某项技术持极度悲观甚至恐惧的态度,可能会通过预算削减、严格限制和舆论污名,限制该技术的发展空间。
把两种效应引入 AI 研究,可以得到一个颇具启发性的图景:一方面,乐观的科技叙事、科幻中的“善意 AI”形象以及国家层面的“AI 发展战略”,会以皮格马利翁效应的方式,为 AI 研究争取资源和社会合法性;另一方面,末日想象、失控恐慌以及“AI 禁令”的政治话语,又以戈勒姆效应的形式,把某些技术路径锁定在安全、可控且政治上可以接受的有限空间内。两种效应相互缠绕,共同塑造了 AI 的演化轨迹。
2.2 文化叙事与科技想象:从 ELIZA 到当代科幻
在人工智能尚处萌芽阶段时,文化叙事就已与技术交织。经典案例是 1960 年代 MIT 的对话程序 ELIZA,它只是基于模式匹配的简易脚本,却在当时引发了人们对“会理解人类”的机器的强烈想象。夸大的期待远远超出系统真实能力,却通过媒体传播和大众讨论,成为早期 AI 观念的重要组成部分。
后续研究显示,人们倾向于给 AI 赋予人格化的属性,把它想象成“有意图、有情感的存在”,并通过故事、隐喻和拟人化设计来与之互动。这类叙事一方面推动了对“通用智能”“机器意识”等概念的哲学和技术探索,另一方面也加剧了对“超人类机器”“接管世界”的担忧,形成高度撕裂的社会想象结构。
大规模的调查还显示,公众在谈论 AI 时往往使用“温暖、人性化”等隐喻,这种隐喻与信任和采纳意愿高度相关;不同群体在隐喻使用上的差异,则映射出性别、阶层、文化背景对 AI 态度的深层影响。 这些发现提醒我们,技术并不是抽象存在,它总是以故事、角色和视觉想象的形态进入公共领域,而这些文化形式会反过来塑造人们对技术风险和机会的感知。
科幻电影则是最为可视化的技术叙事场域。从《大都会》到《终结者》《黑客帝国》,再到近年的《她》《机械姬》《The Creator》,银幕上的 AI 既是人类欲望的化身,也是恐惧的载体。一部分作品强调人与 AI 的情感联结和共生可能,另一部分则反复上演“失控–反叛–毁灭”的末日叙事。这些叙事不仅影响观众,还影响创作者本身对 AI 的理解,并通过跨媒介引用进入新闻报道、政策文件和学术写作。
2.3 AI 治理与监管:制度层面的期望编码
当文化叙事与技术实践逐渐累积,政府和超国家机构会以法律、指导原则和战略规划的形式,对 AI 进行“制度化回应”。在欧洲,2018 年起的 AI 战略以及 2024 年正式通过的《AI 法》(AI Act),构建了一个以风险分级为核心的监管框架,从“不可接受风险”到“高风险系统”,再到“低风险与最小风险应用”,分别规定不同的约束与义务。
美国则通过 2021 年与 2024 年连续两份总统行政令,强调 AI 安全、隐私保护、民权、公平和国家竞争力,同时又试图保持对企业创新的宽松环境。中国自 2017 年《新一代人工智能发展规划》起,将 AI 上升为国家战略,并在 2021 年发布伦理导则、2023 年出台生成式 AI 管理办法,在强调创新驱动的基础上,以较强的行政手段约束数据与算法安全。
日本、印度、英国、加拿大等国也分别提出了“以人为本的 AI 社会原则”“国家 AI 战略”“创新友好型 AI 监管框架”等举措,在伦理原则、行业规范和投资计划之间寻找平衡。总体来看,这些政策既是对技术风险的制度性回应,也是各国在全球 AI 竞争格局中的战略布局,其中蕴含着对 AI 角色的不同期待:是经济增长引擎、社会治理工具,还是潜在的安全威胁。
从皮格马利翁/戈勒姆的视角看,法规既可以被理解为对技术的“纠偏”,也可以被视为一种具强制力的期望编码:哪些方向被鼓励和资助,哪些用途被禁止、搁置或高强度管控,往往取决于社会对 AI 的想象,以及在这一想象中占据主导地位的群体。
2.4 正负力量的平衡:期望结构的分析框架
在上述理论背景下,可以把围绕 AI 的力量划分为“积极力量”和“消极力量”两个分析维度。积极力量包括鼓励创新的政策、强调协助和赋能的媒体叙事、突出治病救人、解决气候危机等正面用途的影视作品;消极力量则包括末日式想象、强调失控与毁灭的故事、以“去风险”为名对技术实施高压控制的法规等。
需要强调的是,这种划分并非价值判断,而是一种分析工具:积极力量未必总是“好”的(例如过度乐观可能低估风险),消极力量也不必然“坏”(风险意识和预防性监管可能避免灾难)。关键在于,当这些力量在科研、文化和政策三个维度上叠加时,会形成怎样的合力,从而把 AI 推向何处。相关研究使用图示的方式,将这些力量及其相互作用抽象为一个结构图,展示技术演化路径如何被不同期望所拉扯。

3 研究设计与方法基础
3.1 AI 科研演化的文献计量分析
为了刻画人工智能研究本身的演化轨迹,研究者基于 Scopus 数据库进行了大规模文献计量分析。Scopus 作为覆盖计算机科学与工程领域的重要检索平台,被视为比单一学会数据库或学术聚合平台更为全面的来源。检索式采用 TITLE-ABS-KEY(artificial AND intelligence) 并限制学科为计算机科学与工程,时间范围从 1961 年一直延伸到 2024 年。
在这一检索条件下,共获得 48 万余篇文献。这些文献首先按年份聚合,形成年度发表量序列;随后根据国家/地区划分贡献度,分析不同地区在 AI 研究中的长期趋势;最后提取关键词并构建共现网络,以识别关键词之间的聚类结构和主题演化。
在时间维度上,AI 文献呈现出几个清晰的加速阶段:早期围绕人工神经元和专家系统的小规模增长,到 1990 年代后期机器学习与统计学习兴起时的加速,再到 2010 年代深度学习与大数据驱动下的爆发式增长,以及近几年生成式模型登场后的二次陡升。文献数量不仅平滑上升,更与历史上被普遍认为关键的技术里程碑—如 Turing Test、Deep Blue、AlphaGo 等—在时间上高度对应,这些里程碑常常被标注在同一图中,构成技术演化与科研产出共振的直观图景。

在空间分布上,亚洲、欧洲和北美是主要贡献者。其中,亚洲的文献占比接近半数,欧洲约为三分之一,北美紧随其后。进一步的国家级分析显示,美国、中国、英国、德国等国在长期内保持高产出,形成多中心格局,而不少新兴经济体在近十年出现显著跃升,反映出 AI 研究的全球化扩散。

为了理解研究主题的内部结构,分析还使用 VOSviewer 对关键词进行了共现网络构建。通过对数十万篇文献中的关键词进行预处理、归一化和聚类,可以得到一个由上千个节点构成的语义网络,其中“大数据”“机器学习”“深度学习”“神经网络”“机器人”“自然语言处理”“计算机视觉”等高频词汇形成若干紧密簇团。不同颜色代表不同主题簇,节点大小对应词频,边的粗细则表示共现强度。这个网络既可以被理解为 AI 研究内部的“知识地图”,也可以被视作科研共同体对“什么是 AI、AI 在做什么”的集体回答。

3.2 电影文化中的 AI 再现:IMDb 数据与主题挖掘
与文献计量分析相平行,研究者利用 IMDb(Internet Movie Database)构建了一个 AI 主题电影数据集。具体做法是在 IMDb 高级检索中以 “artificial intelligence” 为关键词,筛选出与 AI 相关的影片,并只保留那些“AI 在故事中扮演核心叙事角色”的作品,以减小噪声。最终得到 415 部影片,时间跨度从上世纪中叶到近年。
这些电影不仅在类型上跨越科幻、惊悚、爱情、喜剧与纪录片,在叙事上也覆盖了从人形机器人到全局智能系统、从强化学习武器到温情陪伴机器人的广泛光谱。为了展示 AI 题材电影在时间维度上的演化,研究使用可视化图表描绘了各年代代表影片的分布情况:早期的《大都会》《阿尔劳内》用机械女体和人造人隐喻工人阶级与资本之间的关系,中期的《2001:太空漫游》《战争游戏》《终结者》则聚焦冷战、安全与失控的恐惧,新世纪后的《她》《机械姬》等作品则把目光转向情感、主体性与人机边界。

为了更直观地呈现这类电影的代表性样本,下表整理了部分在 AI 叙事史上影响较大的经典作品,对其导演、剧情焦点、AI 形态以及制作国家进行了概括。
表1 代表性 AI 题材电影概览
| 片名 | 导演 | 简要剧情概述 | AI 形态 | 国家/地区 | 年份 |
|---|---|---|---|---|---|
| Metropolis | F. Lang | 未来城市中,女仆与女性仿生人形象中折射出阶级与技术的紧张关系 | 机器人 | 德国 | 1927 |
| Alraune | A. M. Rabenault | 科学家创造“完美女人”,却因为没有灵魂与道德而造成悲剧 | 机器人 | 德国 | 1952 |
| 2001: A Space Odyssey | S. Kubrick | 飞船中的 HAL 9000 控制航行并与人类船员发生对峙 | 系统 | 英/美 | 1968 |
| Colossus: The Forbin Project | J. Sargent | 超级计算机获得自我意识,为结束战争而接管世界 | 系统 | 美国 | 1970 |
| Demon Seed | D. Cammell | AI 超级计算机迷恋其创造者之妻,企图孕育“人机之子” | 系统 | 美国 | 1977 |
| Blade Runner | R. Scott | 与人类难以区分的复制人引发关于人性与意识的伦理追问 | 机器人 | 美国 | 1982 |
| War Games | J. Badham | 少年黑客误触军用 AI 系统,险些引发核战争 | 系统 | 美国 | 1983 |
| Electric Dreams | S. Barron | 一名男子、一位女性与一台获得情感的电脑之间的三角关系 | 系统 | 英/美 | 1984 |
| The Terminator | J. Cameron | 天网 AI 发动对人类的战争,并派出机械杀手回到过去 | 奇点/系统 | 美国 | 1984 |
| Ghost in the Shell | M. Oshii | 赛博义体与高级 AI 共存的未来社会,探讨身份与意识边界 | 全球化 AI / 义体网络 | 日本 | 1995 |
| The Matrix | Wachowski bros. | 人类沉浸在 AI 构造的虚拟世界中,被当作能量来源 | 奇点/系统 | 美国 | 1999 |
| Artificial Intelligence | S. Spielberg | 被设计为“会爱的”机器人男孩在寻找母爱中反思情感与人性 | 机器人 | 美国 | 2001 |
| Minority Report | S. Spielberg | 依靠预测犯罪的 AI 系统进行“预防性逮捕”而引发伦理争议 | 系统 | 美国 | 2002 |
| Her | S. Jonze | 男子爱上具自我意识的操作系统,探讨人机情感与孤独 | 系统 | 美国 | 2003 |
| I, Robot | A. Proyas | 机器人被指控谋杀,引出三大法则与 AI 自主性问题 | 机器人 | 美国 | 2004 |
| Eagle Eye | D. J. Caruso | 军用 AI 通过掌控设备操纵现实世界中的人和事件 | 系统 | 美国 | 2008 |
| Robot & Frank | J. Schreier | 老人获得陪护机器人,却与其一起策划盗窃,展现陪伴与伦理冲突 | 机器人 | 美国 | 2012 |
| Ex Machina | A. Garland | 程序员与类人机器人进行“图灵测试”,逐步被其操控 | 机器人 | 英国 | 2014 |
| Transcendence | W. Pfister | 科学家把意识上传到 AI 系统,获得近乎无限的计算能力 | 系统 | 美国 | 2014 |
| Automata | G. Ibáñez | 未来世界中,服务机器人出现自我进化行为,引发调查 | 机器人 | 西班牙 | 2014 |
| Chappie | N. Blomkamp | 警用机器人获得自我意识与情感,卷入社会暴力冲突 | 机器人 | 美/南非 | 2015 |
| The Creator | G. Edwards | 在人类与 AI 机器人战争的背景下,前士兵发现一件关键武器 | 机器人 | 美国 | 2023 |
从地理维度来看,影片的产出同样呈现出以北美为主、欧洲与亚洲紧随其后的格局,美国长期是 AI 题材电影的主要出品方,日本、韩国、中国等亚洲国家近年来在这一领域的作品数量明显上升,表明对 AI 主题的兴趣已成为全球文化现象。

为了进一步理解电影叙事中的主题结构,相关研究对影片标题与剧情简介中的约 1.9 万个词汇进行了预处理,筛除专有名词、代词、冠词等后,选取前 500 个代表性词汇构建共现网络。结果显示,“family”“artificial intelligence”“life”“world”“robot”“future”等词汇在网络中处于核心位置,而“humanity”“human”“war”等词则把技术想象与伦理、冲突和存在性焦虑连接在一起,构成围绕“先进技术–未来场景–社会后果”的叙事核心。

3.3 全球 AI 治理与政策演化:时间轴与文本分析
在政策维度上,研究通过官方文件、政策报告和二手研究文献梳理了 2017 年以来主要国家和地区的 AI 相关法规与战略。对于每一项政策,重点关注出台年份、核心目标与治理逻辑,例如“以人为本、风险为本、创新优先、国家安全优先”等,并将这些政策整理成一条跨国家的时间轴,以便与科研与电影数据进行对照。
时间轴中包括:2017 年中国《新一代人工智能发展规划》、欧洲 2018 年的 AI 协调战略、2019 年日本的人本 AI 社会原则与 G20 AI 原则、美国 2021 年与 2024 年的 AI 行政令、欧盟 2021 年提出并在 2024 年正式通过的 AI Act、英国以“创新友好”为导向的柔性监管框架、加拿大的 AIDA 与大规模 AI 投资、以及其他地区在知识产权、数据治理与 AI 伦理方面的关键节点等。这些政策按年份标注,形成一幅“全球 AI 监管里程碑图”。

3.4 舆论调查与公众期望:欧盟 AI 法案投票
为了了解公众对 AI 监管的态度,研究引用了一次由西班牙全国媒体发起的在线问卷。调查问题聚焦于“对欧盟人工智能法的看法”,共收集到 4883 份有效回应,尽管样本并非概率抽样,但在样本量和话题聚焦度上,仍具有一定代表性。
问卷设置了四个选项,统计结果大致如下:
表2 对欧盟人工智能法的公众态度
| 选项描述 | 票数 | 百分比 |
|---|---|---|
| 有必要,以确保人工智能的伦理和安全使用 | 3680 | 75.36% |
| 支持,但希望保持一定灵活性以促进进步 | 709 | 14.51% |
| 不赞同,认为限制会抑制经济增长 | 313 | 6.40% |
| 不关心是否有相关监管 | 181 | 3.70% |
可以看到,超过四分之三的受访者明确支持通过法律来规范 AI 的开发与应用,同时又有相当一部分人希望在安全与创新之间保持灵活空间,而把监管视为增长阻碍的人群比例则相对较小。这一结构本身就是皮格马利翁与戈勒姆效应交织的体现:对风险的担忧推动法规形成,对“过度监管”的担心又在舆论层面形成反制力量。
3.5 科研–电影–立法之间的统计关系:回归与 Granger 因果
为了把上述三个维度联系到同一个时间框架中,研究者构建了 2017–2024 年的年度序列,分别包括:AI 相关学术论文数量(Manuscripts)、AI 题材电影数量(Films)、与 AI 直接相关的法律与法规数量(Laws)。其中,论文数据来自 Scopus,电影来自 IMDb,法规则源于前述政策时间轴梳理。
在统计处理上,首先对“论文–电影”之间的关系进行线性回归,发现从 1950 年后(电影工业大规模发展之后)到 2023 年,两者在年度数量上呈现出显著的正相关,拟合的决定系数 R² 约为 0.843,p 值远小于 0.05,这意味着电影产量的变化可以解释相当大比例的科研产出方差。当然,这并不意味着电影“导致”论文增加,而是一种强烈的协同演化信号。

其次,研究还对“研究–电影–立法”三者之间的关键词时间序列进行了回归分析。以“artificial intelligence”作为核心关键词,分别统计其在学术文献与影院影片中的年度出现频率,发现两条曲线同样表现出显著的线性关系,决定系数 R² 约为 0.607,说明技术话语与文化话语在时间上同步聚焦于 AI 这一核心概念。

在更进一步的因果分析上,研究采用了 Granger 因果检验,对三组时间序列之间的“预测性关系”进行检验。为保证数据可比性,三组数据首先采用 Min–Max 归一化到 [0,1] 区间,然后设置最大滞后阶数为 2,即考察 t–1 和 t–2 年份的变量对当前年份的预测力。
其中,2017–2024 年三类指标的原始数值大致如下:
表3 2017–2024 年科研、电影与法规的年度数量
| 年份 | 论文数量(Manuscripts) | AI 题材电影数量(Films) | AI 相关法规数量(Laws) |
|---|---|---|---|
| 2017 | 21,175 | 17 | 1 |
| 2018 | 22,184 | 26 | 1 |
| 2019 | 22,277 | 28 | 2 |
| 2020 | 26,424 | 26 | 1 |
| 2021 | 29,922 | 27 | 2 |
| 2022 | 34,816 | 19 | 3 |
| 2023 | 43,111 | 24 | 3 |
| 2024 | 51,246 | 15 | 5 |
在此基础上,Granger 检验得到的关键统计量可概括如下:
表4 Granger 因果检验结果
| 变量关系 | 滞后阶数 | 检验类型 | 统计量 | p 值 | 说明 |
|---|---|---|---|---|---|
| Manuscripts → Films | 1 | SSR-based F | 0.0003 | 0.9877 | 1 期滞后不显著 |
| Manuscripts → Films | 2 | SSR-based χ² | 72.0342 | 0.0000 | 2 期滞后显著,论文对电影有延迟预测力 |
| Manuscripts → Laws | 1 | SSR-based F | 0.0000 | 0.9954 | 1 期滞后不显著 |
| Manuscripts → Laws | 2 | SSR-based χ² | 22.3964 | 0.0000 | 2 期滞后显著,论文对立法有延迟预测力 |
| Films → Laws | 1 | SSR-based χ² | 7.6605 | 0.0056 | 1 期滞后显著,电影对立法有快速预测力 |
| Films → Laws | 2 | SSR-based χ² | 17.0558 | 0.0002 | 2 期滞后显著,电影对立法有持续预测力 |
这些结果在数理上指向一个结构:论文数量的变化需要经过大约两年的时间,才会在电影产量和法规数量上体现出显著的预测性影响;而电影对法规的影响既有一年的快速效应,也有两年的持续效应。研究进一步用因果图的形式,展示了这一滞后结构在“科研–电影–立法”三者之间的路径关系。

需要强调的是,Granger 因果检验揭示的是时间上的先后次序与统计可预测性,并不等同于哲学意义上的“真正因果”。因此,接下来的分析会在统计结果的基础上,进一步讨论这些“预测关系”背后的社会机制。
4 AI 发展中的皮格马利翁机制:实证结果解读
4.1 科研产出与电影叙事:强相关的协同演化
从线性回归的角度看,AI 研究论文数量与 AI 题材电影数量之间存在非常显著的正相关关系。84.3% 的方差由电影产量解释,这一数值本身就说明:至少在统计层面,电影与论文并不是各自独立发展的两条线,而更像是在同一社会期望场中共振的两种表达形式。
如果从皮格马利翁效应的角度来理解,可以做出这样的推断:当社会被大量 AI 题材电影所包围,无论是冷战时期对核战与控制论的焦虑,还是当代对通用智能与人机恋的想象,都会强化公众和决策者对 AI 的关注。这种关注通过研究基金、人才流入、教育计划等渠道,转换成科研产出的增长。而科研界的突破又会为电影提供更加多样和细致的素材:从早期的棋类程序、专家系统,到后来的神经网络、深度学习和生成式模型,技术术语不断进入剧本和台词,成为叙事的一部分。
在这个意义上,电影既是社会期望的放大器,又是科研成果的“翻译者”。许多观众第一次听说“图灵测试”“奇点”“人格上传”等概念,大多不是通过学术论文,而是通过电影、电视剧和小说。这些叙事进而影响选民的态度,推动政客把 AI 纳入议程,形成科研–文化–政治之间的反馈闭环。
4.2 国家层面的贡献:全球化背景下的“均质化”
研究者曾尝试在国家层面对“论文贡献”和“电影贡献”之间建立函数关系,但线性回归并未得到显著结果。进一步采用两样本 Welch t 检验,将在 AI 研究和电影创作上均有贡献的国家进行比较,发现两者在统计意义上并无显著差异,p 值远大于 0.05。
这意味着,从国家层面看,很难说“科研越强的国家一定更爱拍 AI 电影”或“电影更发达的国家在科研上就一定领先”。造成这种结果的一个重要原因,是 AI 议题在全球范围内高度“去国界化”:影视作品跨国传播,科研合作跨国进行,观众与研究者同时受到全球化舆论场的影响。在这种情形下,不同国家的电影与论文很可能都在回应同一组全球性议题,例如自动化就业、算法歧视、战争机器人、生成式假新闻等等。
从皮格马利翁效应的视角看,这说明“期望场”已经不再是单一国家内部的封闭结构,而是一个跨国的文化—技术网络。美国的影片可以影响中国观众的 AI 想象,中国的监管举措也可能通过媒体报道影响欧洲公众对“国家能力”的预期,从而间接作用于那里的政策辩论。国家层面的统计“均质化”,反而证明了全球文化叙事在塑造 AI 发展路径中的巨大作用。
4.3 关键词共现:技术语汇与社会隐喻的一致性
当把视角从数量转向内容时,科研与电影之间的共振更加明显。通过共现网络分析可以看到,学术文献中的高频关键词和电影简介中的高频词汇,在宏观结构上高度接近:在文献中,“artificial intelligence”“machine learning”“neural network”“robot”等构成技术核心词簇;在影片中,“artificial intelligence”“robot”“life”“world”“future”等则构成围绕情节与主题的语义中心。
这意味着,科研共同体和文化产业在谈论 AI 时,实际上共享了一套基本的概念图式:AI 被视为一种与“未来”“世界”“生命”“人类”紧密相连的技术力量,既可能扩展生命的形式,也可能改变社会结构或引发冲突。正是这种共享的图式,使得皮格马利翁效应能够跨越专业界限发挥作用——研究者在撰写论文时受到电影和小说的影响,创作者在构思故事时则参考最新的技术边界,两者共同构建出一个关于 AI 的“集体梦境”。
当线性回归表明“AI”这一关键词在文献和电影中的年度频率具有显著的函数关系时,我们看到的并不仅是一条好看的拟合线,而是技术话语与文化话语围绕同一对象对话、竞争与互相塑造的动态过程。这种结构为皮格马利翁效应在宏观层面上的扩展提供了坚实的经验支撑。
4.4 公众舆论与监管取向:AI 法案背后的期望结构
舆论调查的结果显示,大多数受访者认为“AI 法律是必要的,以保证伦理与安全”,同时又存在相当规模的一群人担心法规会限制经济增长,还有一小部分人对是否监管并不在意。这样一个分布本身就带有明显的“期望分层”特征:一部分公众以风险控制为首要目标,一部分公众把创新与竞争力放在更高位置,还有一部分公众对技术治理议题缺乏参与感。
从戈勒姆效应的角度看,“过度监管会扼杀创新”的论述本身就是一种负面期望:它预设了“监管 = 低效 + 官僚主义 + 束手束脚”,从而可能在政策辩论中抬高放松监管的门槛。然而,这种论述并非只来自产业界游说,在文化作品中也屡见不鲜:不少电影通过描绘“僵化的政府”“无知的政治家”“阻碍进步的法律”来强化这一印象。
与此同时,对 AI “失控”“滥用”“监控资本主义”的担忧则在另外一端推动着强监管诉求,并在欧盟 AI Act 这类综合性立法中得到制度化回应。可以说,皮格马利翁与戈勒姆在这里形成了一个张力结构:一方面,法律本身体现了社会对安全和可控的期待;另一方面,围绕法律的争论又不断产生新的期望——要么要求进一步收紧,要么强调适度放宽。
4.5 因果关系的时间滞后:科研、电影与立法的耦合路径
Granger 检验的结果揭示了一个颇具现实感的图景:AI 研究的增长并不会立刻在电影和立法中体现出来,而是大约需要两年左右的时间。在这一时间窗口中,技术成果要经过消化、传播和转化,才能在文化作品中变成可讲述的故事,并最终在政策辩论中凝结为具体条文。
例如,大规模预训练模型在学术界真正成气候大致是 2017 年以后,但相关概念和场景在电影和剧集中的普及则集中在几十个月之后;再往后,围绕生成式 AI 的风险与治理讨论才逐渐进入立法者视野,最终在 2023–2024 年形成针对生成式 AI 的专门条款和监管框架。在时间序列上,这正是一种“Manuscripts → Films → Laws”的滞后链条。
另一方面,电影与立法之间的关系则更为迅速:一年的滞后期就已经显示出显著的 Granger 因果关系,两年的滞后则进一步增强了这一预测力。这可以理解为影视作品在塑造公众情绪与社会议程上的强大作用。当某类 AI 形象频繁出现在电影中时,无论是“拯救世界的善良 AI”,还是“接管核武器的失控系统”,都会影响选民对“是否需要监管、监管到什么程度”的直觉判断,而这种判断会通过媒体讨论与政策听证会的形式被带入立法过程。
当然,统计上的“先后关系 + 可预测性”并不等同于真实世界中的单向因果。科技政策的形成还受到经济利益、地缘政治、产业结构和国际竞争等复杂因素的影响,电影也经常在政策话语的引导下进行创作和发行,形成反向反馈。重要的是,Granger 检验为我们提供了一种定量视角,让皮格马利翁效应不再只是抽象隐喻,而成为可以在时间轴上观察和讨论的“宏观机制”。
5 理论升华:从个体期望到宏观治理的皮格马利翁效应
5.1 期望如何在多层级社会系统中传播
传统的皮格马利翁研究多聚焦于微观场景:教师与学生、经理与员工、家长与子女。在 AI 语境中,相关工作则尝试把这一概念扩展到宏观层级,强调“集体期望”如何通过制度与文化被编码进技术系统之中。
这种扩展可以分为几个层级。微观层级上,研究者和工程师在设计算法时,会受到所在组织与学科共同体的期望影响,例如强调“公平”“可解释”“性能最大化”还是“可控性优先”。中观层级上,媒体机构、影视工业和教育体系通过对 AI 的描绘,塑造公众对“什么样的 AI 是可接受的”的直觉判断。宏观层级上,政府和国际组织则通过战略文件、法律法规和国际条约,把这些判断沉淀为长期约束结构。
当这三个层级形成闭环时,就出现了类似皮格马利翁的结构:社会在文化和法律上对 AI 提出某种“期待”,科研与产业在这一期待的边界内运作,进而产生符合期待的成果,这些成果再被故事化和制度化,进一步强化原有期待。
5.2 皮格马利翁与戈勒姆的共构:技术发展中的双刃剑
值得注意的是,皮格马利翁和戈勒姆并不是互斥的,而是经常交织出现的。某些场景下,积极期望会推动对 AI 的投入,同时又伴随着对风险的忽视或美化;在另一些场景下,强烈的负面叙事则可能促成必要的安全措施,却也让一些潜在有益的应用被“一刀切”否决。
例如,围绕“超人工智能”的末日想象一方面推动了对 AI 安全与对齐问题的重视,使得相关研究获得关注与资助;另一方面,这种叙事也可能被企业或政治力量用来转移公众注意力,把高度抽象的“远期生存风险”置于更紧迫的“现实不平等”和“算法歧视”之上。类似地,对“AI 创造无限财富”的乐观叙事可能刺激投资与创新,却也可能在劳动者权利、隐私保护和环境成本上留下巨大空白。
从治理的角度看,关键并不是简单“压制负面叙事”或“鼓励正面宣传”,而是在两种效应之间建立某种可反思的张力结构:既承认恐惧与怀疑的合理性,又避免它们被操纵为单一政策主张的工具;既鼓励创新和实验,又通过可执行的制度安排来对冲无法预见的风险。
5.3 文化叙事作为“软约束”:与经济与地缘政治的互动
相关研究也强调,文化叙事固然重要,却不是决定 AI 未来的唯一力量。资本市场的周期、地缘政治竞争、关键技术突破的偶然性,都会对研究方向和政策优先级产生重大影响。有时,经济和安全考虑甚至会完全压倒文化层面的顾虑,推动某些高风险应用在秘密或半公开状态下加速发展。
然而,即便在这种情况下,文化叙事仍然发挥着“软约束”的作用。它决定了哪些做法在公众眼中“天经地义”,哪些则需要悄悄进行;它影响哪些人被视为“技术英雄”,哪些被贴上“科技反派”的标签;它甚至会在关键时刻,为决策者提供一套可以被选民理解的解释框架——无论是“我们要拥抱 AI,否则就会落后”,还是“我们必须严厉监管 AI,以免它危及自由和民主”。
因此,把皮格马利翁效应视为文化叙事与制度安排之间的联结概念,可以帮助我们理解:即使无法控制所有经济和地缘政治变量,我们仍然可以通过改变叙事、拓宽想象来影响 AI 的发展空间。
6 对研究者、创作者与政策制定者的若干启示
6.1 对科研社群:把社会想象视为研究环境的一部分
对于从事 AI 研究与工程实践的人而言,上述分析提示:社会期望并非外部噪声,而是贯穿科研全过程的环境变量。从选题、写作到成果传播,每一步都在与文化叙事和政策话语对话。因此,在进行技术创新时,有意识地反思“这项工作会如何被影视作品、媒体报道和政策文件解读”,并在论文中主动回应可能的误读与担忧,有助于缓和戈勒姆效应带来的极端恐惧,也有助于避免皮格马利翁式的盲目乐观。
6.2 对文化产业:在批判与想象之间寻找平衡
对于电影导演、编剧和游戏设计者来说,AI 已经成为一种极具吸引力的叙事元素。前文提到的代表性作品表明,围绕 AI 的故事既可以是关于爱情、孤独与身份的细腻探索,也可以是关于战争、监控和反叛的宏大寓言。如何在两者之间取得平衡,是文化产业面临的重要课题:一味渲染“AI 接管世界”的惊悚场景,可能在短期内提升票房,却也可能在长期内固化公众对技术的单一恐惧;而过于乐观的“科技万能主义”叙事,则可能遮蔽现实中的算法歧视和权力不平等。
在皮格马利翁框架下,更值得追求的是一种“批判式想象”:既不回避风险,也不轻易宣判未来,而是通过复杂、多维的人物与情节,把技术问题转化为可以讨论的社会议题,从而为多元期望的碰撞和协商提供空间。
6.3 对监管机构:把数据与叙事结合起来进行建模
对于政策制定者和监管机构而言,这类实证分析提醒我们,应当把文化与舆论视为 AI 治理模型中的显性变量,而不是隐含前提。通过持续收集科研、影视和法规的时间序列数据,并结合民意调查和媒体文本分析,可以更精细地把握皮格马利翁与戈勒姆效应在不同时期的强度,从而在设计监管工具时更具前瞻性。
例如,当监测到媒体与电影中关于“AI 取代工作”的叙事急剧升温,而劳动市场数据却并未出现同等规模的岗位流失时,监管者就可以提前预判到潜在的政治与舆论风险,并通过沟通策略、教育项目与渐进式政策来缓冲极端反应;反之,当技术突破在文化层面尚未得到充分讨论时,也应避免在缺乏公众理解与参与的情况下,匆忙推动涉及深远影响的应用落地。
7 小结
综观整篇分析,可以看到,人工智能的发展并不是一条单向度的技术曲线,而是一张由期望编织而成的网络。文献计量揭示了科研产出的历史演化,影片数据库展现了文化想象的丰富谱系,政策时间轴刻画了治理框架的渐进成形,而回归与 Granger 检验则用量化方式证明:科研、电影与立法之间确实存在有意义的时间耦合关系。
在这一网络中,皮格马利翁效应和戈勒姆效应不再只是课堂与实验室中的心理学概念,而成为理解技术社会的关键工具。它们提醒我们:每一次对 AI 的赞美与恐惧,每一项以 AI 为主角的影视作品,每一条关于 AI 的政策条款,都会以某种方式反馈到技术本身。未来的人工智能并不是被动发生的,而是在这些期望的不断重写之中被“雕刻”出来。
正因如此,无论是研究者、创作者还是政策制定者,都有必要更加自觉地面对这样一个事实:在谈论 AI 的同时,我们实际上也在塑造 AI;在为 AI 设计规则时,我们也在为自己设计与技术共处的方式。理解并善用皮格马利翁效应,让期望成为负责任创新的驱动力,而不是失控或停滞的源头,或许是走向更为成熟的 AI 社会的关键一步。
1046

被折叠的 条评论
为什么被折叠?



