停止将AI拟人化:这样做的危害性分析

在让AI模型显得越来越令人印象深刻的竞赛中,科技公司采用了戏剧化的语言表达方式。他们不断地像谈论人类一样谈论AI。不仅讨论AI的"思考"或"规划"——这些词语本身就充满争议——现在他们还讨论AI模型的"灵魂",以及模型如何"坦白"、"想要"、"策划"或"感到不确定"。

这不是无害的营销修辞。将AI拟人化是误导性的、不负责任的,最终会腐蚀公众对这项技术的理解,而这项技术在透明度方面本就存在问题,在这个最需要清晰认知的时刻。

大型AI公司的研究本意是揭示生成式AI的行为特点,但往往以混淆而非阐明的方式呈现。例如,OpenAI最近发布的一篇文章详细介绍了让其模型"坦白"错误或捷径的工作。这是一个有价值的实验,探索聊天机器人如何自我报告某些"不当行为",如幻觉和策划。但OpenAI将这一过程描述为"坦白"暗示大语言模型的输出背后存在心理因素。

这可能源于人们认识到,大语言模型要实现真正的透明度是多么具有挑战性。我们已经看到,例如,AI模型无法可靠地展示其在解决数独谜题等活动中的工作过程。

AI能够生成什么与它如何生成之间存在差距,这正是这种类人术语如此危险的原因。我们本可以讨论这项技术的真正局限性和危险性,但将AI标记为有认知能力的存在的术语只会淡化担忧或掩盖风险。

AI没有灵魂

AI系统没有灵魂、动机、感情或道德。它们不会因为感到诚实的驱动而"坦白",就像计算器在你按错键时不会"道歉"一样。这些系统基于从庞大数据集中学到的统计关系生成文本模式。

就是这样。

任何感觉像人类的东西都是我们将内心生活投射到一面非常复杂的镜子上。

将AI拟人化让人们对这些系统的实际本质产生错误认识。这会产生后果。当我们开始将意识和情感智能赋予一个实际上不存在这些特质的实体时,我们开始以它本不应该被信任的方式信任AI。

今天,越来越多的人转向"ChatGPT医生"寻求医疗指导,而不是依赖有执照的合格临床医生。其他人在财务、心理健康和人际关系等领域转向AI生成的回应。一些人与聊天机器人形成依赖性的虚假友谊,并听从它们的指导,假设大语言模型输出的任何内容都"足够好",可以为他们的决策和行动提供信息。

我们应该如何谈论AI

当公司倾向于使用拟人化语言时,它们模糊了模拟和知觉之间的界限。这种术语夸大了期望,引发了恐惧,并分散了人们对真正值得关注的问题的注意力:数据集中的偏见、恶意行为者的滥用、安全性、可靠性和权力集中。这些话题都不需要神秘的隐喻。

以Anthropic最近泄露的"灵魂文档"为例,该文档用于训练Claude Opus 4.5的性格、自我认知和身份。这份古怪的内部文档从未打算做出形而上学的声明——更像是工程师们在调试指南上的即兴发挥。然而,这些公司在闭门会议中使用的语言不可避免地渗透到普通大众讨论它们的方式中。一旦这种语言固化,它就会塑造我们对技术的想法,以及我们在技术周围的行为方式。

或者以OpenAI关于AI"策划"的研究为例,其中少数罕见但具有欺骗性的回应让一些研究人员得出结论,认为模型故意隐藏某些能力。仔细审查AI结果是好做法;暗示聊天机器人可能有自己的动机或策略则不是。OpenAI的报告实际上说这些行为是训练数据和某些提示趋势的结果,而不是欺骗的迹象。但因为它使用了"策划"一词,讨论转向了对AI成为某种狡诈智能体的担忧。

有更好、更准确、更技术性的词汇。与其说"灵魂",不如谈论模型的架构或训练。与其说"坦白",不如称之为错误报告或内部一致性检查。与其说模型"策划",不如描述其优化过程。我们应该使用趋势、输出、表示、优化器、模型更新或训练动态等术语来指代AI。它们不如"灵魂"或"坦白"那样戏剧性,但它们具有基于现实的优势。

公平地说,这些大语言模型行为看起来像人类是有原因的——公司训练它们模仿我们。

正如2021年论文《随机鹦鹉的危险性》的作者所指出的,为了复制人类语言和交流而构建的系统最终将反映它——我们的用词、语法、语调和基调。相似性并不意味着真正的理解。这意味着模型正在执行它被优化要做的事情。当聊天机器人现在能够如此令人信服地模仿时,我们最终会将人性解读到机器中,尽管实际上并不存在这样的东西。

语言塑造公众认知。当词汇马虎、神奇或故意拟人化时,公众最终得到的是扭曲的画面。这种扭曲只有一个群体受益:那些从大语言模型看起来比实际更有能力、更有用、更人性化中获利的AI公司。

如果AI公司想要建立公众信任,第一步很简单。停止将语言模型当作有灵魂的神秘存在来对待。它们没有感情——我们有。我们的话语应该反映这一点,而不是掩盖它。

Q&A

Q1:为什么说将AI拟人化是有害的?

A:将AI拟人化会误导公众对AI技术的真实理解,让人们错误地认为AI系统具有意识、感情和道德判断力,从而过度信任AI的决策能力。这导致人们在医疗、财务、情感健康等重要领域依赖AI建议,而忽视了AI系统的局限性和风险。

Q2:AI公司为什么要使用拟人化语言描述AI系统?

A:科技公司采用拟人化语言主要是为了营销目的,让AI模型显得更加令人印象深刻和有能力。这种语言策略让大语言模型看起来比实际更有用和人性化,从而为公司带来商业利益,但同时也误导了公众对AI技术本质的认知。

Q3:应该如何正确地描述AI系统的行为?

A:应该使用更准确的技术术语来描述AI行为,比如用"架构"或"训练"代替"灵魂",用"错误报告"代替"坦白",用"优化过程"代替"策划"。还应该使用趋势、输出、表示、优化器、模型更新等基于现实的词汇,避免神秘化或拟人化的表达。


评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值