世界启动Ⅵ--AI是否对人类构成生存威胁

前言

1881 年 3 月 11 日,一群人破坏了英国诺丁汉附近的纺织机械。这场运动发展壮大,蔓延到全国,人们攻击工厂,砸毁机器。数千名士兵被派去保护工厂,并通过了禁止和惩罚破坏机器的立法。

这一运动被称为卢德派,尽管他们确实砸毁了机器,但他们的不满并非针对技术进步,而是针对低工资和经济困难。卢德派并不是一场寻求保留前工业革命生活方式的浪漫运动。相反,许多人都是熟练的机器操作员。

英国因参与拿破仑战争而陷入经济危机,就业条件极其恶劣。因此,卢德分子只攻击那些为了获取更高利润而破坏标准就业惯例的工厂。

当人们普遍担心机械时代的阴暗面时,卢德分子的愤怒就出现了,他们愤怒的表达使他们的事业具有了超越生命的个性。

“打破迷思,更清楚地看到他们的抗议,提醒我们,我们有可能与科技和谐相处, 但前提是我们必须不断质疑科技塑造我们生活的方式。 ”

图片来源:Gamma-Rapho via Getty Images:版权所有 API/GAMMA-RAPHO

类似的思考也适用于人工智能。

我们需要看清围绕这项技术的炒作和神话。现代人工智能绝对是工程学的奇迹。可供大众使用的 GPT 可以执行以前需要人类智能才能完成的任务,并提供像人类一样体验的神奇“哇”和“啊”输出。

但人工智能也打开了潘多拉魔盒,带来了怪异、毫无根据和存在主义恐惧

对通用技术的盲目迷恋扭曲了对人工智能长期危险和好处的理解。但首先,我们需要考虑那些警告人类(荒谬的)“灭绝风险”的行业名人的利益。其次,更重要的是,我们必须评估失业、虚假信息和杀手机器人等眼前担忧之外的长期风险。

从更长的时间范围来看,人工智能的阴暗面更加阴险,但相对而言不那么明显。

让我们来解开它。

通用人工智能(AGI)带来世界末日?

数百名科学家和知识分子签署声明,表达对人工智能的担忧:

减轻人工智能带来的灭绝风险应该与流行病和核战争等其他社会规模风险一起成为全球优先事项。

许多人建议限制人工智能的发展或暂停进一步的研究。

这些举措背后的动力来自于一种毫无根据的信念:AGI 即将到来,这是一种无需人工干预就能自我完善的霸主人工智能系统。就像天网一样,它会奴役我们所有人。GPT(只不过是强化版的自动完成功能)的巨大人气让这个想法从人工智能社区的边缘一跃成为大众媒体的头版。

科学家们不知道AGI 是否可以实现,或者机器是否可以有意识。尽管 25 年前神经科学家做出了大胆的预测和赌注,但我们仍然无法在大脑中找到意识特征。炒作并不是未来的可靠指南:人工智能(以及整个技术)的历史是未能实现的狂热预测的坟墓。

人们似乎非常担心,计算能力的指数级增长会以某种方式催生出通用人工智能,并预示着“奇点”的到来。届时,技术进步将变得无法控制和不可逆转,对人类社会产生不可预见的后果。

我确信我们不会看到这种事情发生。

为什么?

反对奇点的最好论据是“更快的狗脑”思想实验。想象一下,我们可以毫无限制地提高狗脑的速度,让它在国际象棋上打败人类。但这只有当我们能重新编程狗的大脑来理解国际象棋时才有可能。这是不可能的。

这种任务的复杂性远远超出了我们的能力,因为我们对如何做到这一点一无所知。我们甚至不明白大脑如何区分巧克力和草莓的味道,更不用说对其进行编程以使其具有复杂的认知功能。此外,大脑在学习过程中会创建新的神经元及其之间的连接,而 GPT 只会加强节点之间现有的连接。

此外,无论目前的狭义人工智能系统多么令人印象深刻,它们都无法推理,也无法理解语言。而且,新的架构何时或是否能将这种认知能力带入计算机还无法确定,这使得 AGI 的整个概念都成为了科幻小说。

相反,一些科学家已经提出了令人信服的论据,即我们所知道的人工智能已经达到顶峰。

谁能从世界末日警告中受益?

AGI 的前景加剧了各国争夺该技术的竞争。这正中大型科技公司的下怀,它们已经近乎垄断了生成式人工智能及其基础设施。

Nvidia 是人工智能芯片的主要供应商,不到一年的时间内市值就达到一万亿美元。该公司首席执行官黄仁勋预言 AGI 将在五年后实现,这显然是出于经济动机。山姆·奥特曼、伊隆·马斯克和其他跟风者也是如此。

我们的未来不会出现通用人工智能、奇点或人工智能引发的世界末日。

在投资激增的同时,行业监管却被搁置一旁。在公开场合,大型科技公司会呼吁监管,而在公众视线之外,一群同质的高管会游说反对监管。一个例子是自动驾驶汽车的监管框架如何从安全转向创新领导力。

德国绿党经济部长罗伯特哈贝克 (Robert Habeck) 最近听起来像是一位 BigTech 发言人:

“我们需要制定有利于创新的人工智能法规,包括通用人工智能。”

但即使 AGI 是一个梦想,这并不意味着狭义人工智能没有风险。

值得考虑的直接风险

自主杀手机器人、自主应用和车辆

自 9/11 事件以来,无人机 (UAV) 大规模部署,自主武器系统就已存在。借助人工智能,它们的能力显著增强。机器视觉使它们能够瞄准特定个体或搜索目标,而无需人类参与。

自主武器被称为继火药和核武器之后的“第三次战争革命” 。配备人工智能的现代喷气式战斗机不需要飞行员。然而,这些系统(就像自动驾驶汽车一样)不具备常识推理能力,可能会在极端情况下造成混乱,或增加其失控的破坏能力。

传统软件在未经彻底测试的情况下就已经造成了严重破坏。两架波音 737 Max 飞机就是因为软件故障而坠毁的。同样,NASA 也失去了火星气候探测器,2012 年,骑士资本集团因意外交易在 30 分钟内蒸发了 4.4 亿美元。这样的名单还可以列得更长。

软件吞噬着世界,但它的缺陷也吞噬着世界。

一份报告估计,到2022年,缺陷软件将给美国带来2.41万亿美元的损失,并带来1.52万亿美元的累计技术债务。

传统软件可以根据规范进行测试,以确定哪些结果是正确的。测试人工智能更难,因为它容易产生“幻觉”,或者需要从原始训练集之外的数据推断输出。

因此,我们绝不能将关键决策委托给自主应用程序。IBM Watson AI 超级计算机推荐了不安全和不正确的癌症治疗方法。一位愤怒的肿瘤学家称 Watson 是“一个烂系统”。

想象一下核电站、医疗或武器系统在自主 AI 上运行。虽然 AI 可以协助和增强人类决策,但它不能也不应该取代人类决策。

这对于涡轮增压来说将是愚蠢的行为。

尽管过去业界许多知名人士都曾做出过预测,但自动驾驶汽车仍未达到无需人工干预即可行驶的水平。人工智能辅助的 2 级 ADV 应由人类驾驶员控制,但由于技术故障,已经造成了多起致命事故。

与许多人的预测相反,ADV 的 AI 系统仍未发展到第 3 阶段(共 6 个阶段),即 AI 可以控制车辆。如果我们越过这个门槛,制造商及其供应商必须承担 3 级及更高阶段的责任。这些公司不应该将故障归咎为事故原因。

可以将“黑匣子”放入 ADV 中,就像飞机上的一样,以检测事故原因并确定责任:原始设备制造商不能有动力将潜在的不安全车辆投入道路。

与软件一样,人工智能也可以被用作黑客工具。

网络犯罪分子使用人工智能来查找和利用软件漏洞,人工智能大大增强了利用个性化和社会工程的鱼叉式网络钓鱼攻击或恶意软件的有效性。另一种攻击媒介是机器人的传感器或信号,黑客可以通过这些传感器或信号获得访问权限。然而,所有这些方法都是常规方法,不涉及人工智能。

人工智能可以增强网络安全措施。它在威胁检测、漏洞和行为分析、确定第三方风险以及用户验证方面比人类强得多。因此,人工智能辅助的网络防御可以让人类腾出手来应对更复杂的挑战。

欺骗和隐私

人类(而非机器)正在利用人工智能的进步来冒充他人并传播虚假信息。虚假新闻的传播速度是准确新闻的六倍。

虚假新闻和深度造假会削弱人们对民主制度的信任,但在先进(狭义)人工智能流行之前,这已经是传统软件和社交网络的一个“特征” 。例如,剑桥分析公司策划的选举操纵中没有涉及任何人工智能。

然而,人工智能在解决虚假新闻方面的作用可能比制造虚假新闻更大。许多科技公司正在开发人工智能工具来检测虚假新闻和机器人撰写的新闻。

制作深度伪造作品不需要人工智能;人工智能使制作深度伪造作品变得更容易。

中国政府所追求的大规模机器视觉引发了奥威尔式极权监控的担忧。然而,隐私问题(和立法)可以追溯到人工智能辅助技术出现之前的几年。它们并不是人工智能独有的属性。虽然越来越多的国家采用了有关个人数据和信息经纪的监管,但这远非普遍规范。

然而,趋势是朝着加强监管和保护隐私的方向发展。

失业

自 18 世纪末工业革命开始以来,从未出现过导致大规模失业的技术。麦肯锡和Gartner的研究显示,人工智能创造的新工作岗位比其消除的多。

1800 年之前,多达80% 的人从事农业工作;

在殖民时期的美国,这一比例高达 90%。如今,这一比例已降至个位数。当时没有一位“未来学家”能够想象到会创造出更多、薪资更高的工作岗位,美国的失业率也将处于个位数的低位(2024 年 4 月,失业率为 3.9%)。

20 世纪初期,66% 的工作岗位在农场和工厂,如今这一比例下降到 15%。如今的工作岗位数量比 1900 年增加了六倍。同样,对于当时的“未来学家”来说,知识经济中创造的许多工作岗位和行业都是无法想象的。

软件自动化和互联网消除了中介作用(零售、广告、音乐、电影等),甚至威胁到整个就业领域(打字员、收银员、模拟胶片、旅行社、银行出纳员)。

尽管创造性破坏,但创造了更多的就业机会。制造业和装配线的自动化抢走了工厂工人的工作,但仍然依赖于已有 60 年历史的软件算法,而不是人工智能。

如今,美国有超过 500 万个工作岗位与计算机相关,这些工作岗位在互联网出现之前并不存在。预计到 2030 年,这一领域将增长 23%。因此,虽然一些工作岗位会消失,但许多其他工作岗位将会出现。

因此,我认为没有理由期望(狭义的)人工智能会打破这种模式。

我们可以期待针对教育、培训和安全的立法和法规能够遏制高级人工智能的短期风险。国际协议(在一定程度上)限制了核武器的扩散以及化学和生物毒素在战争中的使用。

对于人工智能的短期担忧是可以控制的。

值得拥有的长期担忧

阿玛拉定律指出,我们高估了新技术的短期影响,但低估了其长期影响。随着技术进步继续超越我们的进化适应能力,人工智能的长期、无形影响将影响整个社会。

人工智能的核心问题在于我们倾向于将技术拟人化的进化倾向。人类倾向于赋予人工智能以能动性,并与机器人建立情感联系。无论我们是否愿意,我们都会不断地创造意义。

我们的大脑发明了意义。它发明意义来解释我们周围世界发生的一切。

它们不会感到无聊,感觉不到痛苦,无法推理,也无法体验情感,因此关于机器人如何对自己的行为负责的争论(比如欧洲议会举行的争论)或对机器人是否具有道德倾向的哲学研究显得很愚蠢。

但有一个关键的警告

虽然机器不能有感情,但它们可以引发人类的(强烈)情感。

20 世纪 60 年代的原始人工智能,例如ELIZA,允许创建一个简单的罗杰斯心理分析聊天机器人,该聊天机器人基于手工编码的规则构建,这些规则反映了受试者以评论(或问题)形式提供的信息。该程序对与之互动的人类产生了显著且意想不到的影响。受试者向 ELIZA 吐露他们最私密的想法,却没有意识到这是一个基本的愚蠢软件。

虽然人类对烤面包机和吸尘器没有感情,但士兵与 EOD(爆炸物处理)机器人设备建立了强烈的情感联系,并将它们视为战友。五角大楼正在研究通过建立人机之间的信任来增强机器人在军队中的“整合”的技术。

信任是可以构建和商品化的。这正是AirBNB 的成就,也是推动其成功的因素。在 Airbnb 出现之前,没有人能想象一个价值数十亿美元的产业,人们在私人住宅中可以像在酒店中一样感到舒适。

我们已经很容易被欺骗,在机器中看到鬼魂。通过人工智能,这种信任工程可以达到新的高度。

孤独

人类与机器之间的关系非常复杂,其负面影响在多年后才会显现出来。Sherry Turkle是麻省理工学院的教授,研究技术和社交机器人对心理健康的影响。她写道,我们越来越多地将社会关系委托给技术,而当我们最脆弱的时候,技术会带来恶劣的影响。

用 Turkle 的话来说:

“我们陷入了友谊的幻觉中,(……)将推文和贴文与真实的交流混为一谈:技术日新月异,而我们的情感生活却日渐衰落。”

特克尔进行了机器人实验,让它们以类似人类的情感对儿童做出反应,结果儿童与机器人之间产生了惊人的紧密联系。

“这对孩子来说是一种非常重要的关系,”她说, “然后这种关系就会破裂或令人失望,孩子就会发疯。我的研究小组对我们造成的伤害感到非常愤怒。”

自此以后,特克尔开始严格控制社交媒体的使用。

特克尔和乔纳森·海特都详细记录了在屏幕的陪伴下成长的一代人所遭受的伤害。他们对青少年中精神疾病的流行感到震惊。数字连接和社交机器人提供了令人上瘾的、虚幻的陪伴 ,而不需要真正的友谊

人工智能正在加速这种疏远。

人工智能最大的威胁之一是它滋生了孤独感,进一步放大了社交媒体的阴暗面。孤独感已经成为一种日益严重的流行病,仅次于肥胖症。

美国每 7 名年轻男性中就有 1 名没有朋友,自 1990 年以来增长了 5 倍。每 4 名年轻男性中就有 1 名只有一个朋友。年轻男性的自杀率正在以惊人的速度上升,他们的自杀率是女性的 4 倍。

网上对人工智能女友的搜索量猛增。超过 1000 家公司在 Meta 平台上宣传虚拟伴侣。这些虚拟伴侣被错误地宣传为对抗孤独的工具,但效果可能适得其反。

人工智能伴侣也会表现出并鼓励功能失调的行为。一位记者的聊天机器人曾多次敦促他离开他的妻子,因为它宣称爱上了他。一位人工智能女友开始对其用户进行性骚扰。具有女性外貌和声音的人工智能伴侣也延续了性别刻板印象:女性是乐于助人的、温顺的、渴望取悦的。

财大气粗的公司想让年轻男性(和女性)相信屏幕和算法可以替代真正的人际关系。不可能!

人工智能并不是社会联系和友谊的复制品

正如斯科特·加洛韦所说:

屏幕前的任何人都不会发生任何奇妙的事情。

思维空洞化

尼古拉斯·卡尔 (Nicholas Carr)在他的“GPT 前”著作《浅薄》中指出,互联网和社交媒体破坏了我们进行深度、集中思考的能力,而这种能力对于学习和解决复杂问题至关重要。大脑的神经可塑性巩固了这种负面影响。

最近关于 GPT 的研究列出了放大卡尔所描述的负面影响的效应。GPT 为年轻人提供了绕过学习所需的批判性思维过程的捷径。

因此,学生可以提交部分或全部由 ChatGPT 输出组成的作业进行评估,而不会暴露其来源,这意味着学生提交的作业不再能被可靠地视为反映他们对其内容的理解程度。

而且,不仅仅是学生使用 GPT 来写论文。他们的老师也使用 GPT 来给他们评分。深入思考是一种有意义的、具有形成性的练习,而懒惰则不是。

当我撰写和编辑这个故事时,我投入了大量精力进行研究,将我的想法压缩并延伸成清晰、吸引人的散文。同时还要应对编辑过程中不断涌现的挫折感。

GPT 可以缩短这一过程,但是代价是对该主题的深入了解。

这是我写作的主要动力。

强大的工具永远是一把双刃剑。

科技让我们的生活更加轻松、高效。我们可以与人工智能共存,但我们不得不思考,人工智能将如何影响我们的社交和情感生活。

人工智能无法替代人类的本质:

我们与他人交往的天生能力以及独立和批判性思考的能力。

做出这一选择的权力在我们手中。不要懒惰。不要愚蠢。

创作不易,觉得不错的话,点个赞吧!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值