AI灭绝风险真应成为全球优先议题吗?技术控制者才是关键

AI灭绝风险真应成为全球优先议题吗?

今年,AI引发的灭绝风险议题已进入主流讨论。它出现在权威出版物中,被某国首相府引用,并出现在某国政府的AI战略文件中。但一群有影响力的AI技术专家认为这仍未受到足够重视。他们签署声明称:“减轻AI带来的灭绝风险应与流行病和核战争等其他社会规模风险一样,成为全球优先事项。”

"全球优先事项"应是人类面临的最重要、最紧迫的问题。2023年AI能力实现飞跃,无疑带来了新风险,包括可能增加未来某个AI系统失控并毁灭人类的概率。但我们不相信减轻这种风险应成为全球优先事项。其他AI风险同样重要,且更为紧迫。

首先从对"AI风险"的关注说起。这个短语含义模糊,但暗示着自主的恶意智能体。那些因疏忽、鲁莽或恶意使用AI系统的人所造成的风险呢?我们担心的任何由恶意AI可能造成的伤害,在更早阶段通过"恶意人类"借助AI协助实现的可能性要大得多。

实际上,关注这种特定威胁可能会加剧更可能发生的风险。迄今为止的技术史表明,最大风险并非来自技术本身,而是来自控制技术并利用其积累权力和财富的人。签署此声明的AI行业领袖正是最有可能这样做的人。在呼吁制定法规应对未来恶意AI系统风险时,他们提出的干预措施将进一步巩固其权力。我们应警惕那些既想从为人类带来火种中获利,又想被信任为消防员的"普罗米修斯们"。

为何特别关注灭绝风险?正如声明序言所指出的,尽管这很糟糕,但AI还带来其他严重的社会规模风险。全球优先事项不仅应重要,还应紧迫。我们仍处于全球疫情之中,某国在乌克兰的侵略行为使核战争成为迫在眉睫的威胁。声明中未提及的灾难性气候变化很可能已经开始。AI导致的灭绝威胁同样紧迫吗?签署者是否认为现有AI系统或其直接后继者可能消灭我们所有人?如果他们这样认为,那么签署此声明的行业领袖应立即关闭数据中心,并将一切移交给各国政府。研究人员应停止试图使现有AI系统安全,转而呼吁消除这些系统。

我们认为,实际上大多数声明签署者相信失控的AI尚需时日,需要重大的科学突破才能实现——即使我们确信有朝一日会发生,也无法预见的突破。如果确实如此,那么至少可得出两点结论。

首先,我们应更重视更紧迫的严重AI风险。即使现有AI系统及其合理扩展不会消灭我们,它们已经造成更集中的伤害,必将加剧不平等,在渴望权力的政府和不择手段的机构手中,将损害个人和集体自由。我们现在就可以减轻这些风险——无需等待某些不可预测的科学突破才能取得进展。这些应是我们的优先事项。毕竟,如果我们不愿努力解决已经存在的风险,又怎会有信心应对未来AI的风险?

其次,与其用关于AI未来的模糊预测警示公众,我们应少关注该担心什么,多关注该做什么。未来AI系统可能带来的极端风险应是对话的一部分,但不该主导对话。我们应首先承认,AI的未来——可能比疫情、核战争和气候变化更是如此——根本上处于我们的集体控制之中。我们现在就需要问:我们想要什么样的未来?这不仅意味着就神级AI应遵守的规则征求意见,还意味着要问:是否在任何地方都存在创建此类系统的民主多数意见?

我们应专注于建立既能减少现有AI风险,又能使我们在了解更多新风险时处于有利地位的机构。这当然意味着应用预防原则,并在可能的情况下采取具体措施预测尚未实现的风险。但也意味着让在这个AI权力榜单中代表性不足的声音和群体获得权力——其中许多人长期以来一直在提请注意AI的社会规模风险,却未得到如此多关注。在他们的工作基础上,让我们专注于能够研究、理解和控制的事物——现有AI系统及其直接后继者的设计与实际应用,以及它们所处的社会和政治系统。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值