递归自我改进AI的潜力与局限
在人工智能(AI)的发展历程中,递归自我改进这一概念引发了广泛的关注与讨论。有人担忧递归自我改进的通用人工智能(AGI)会迅速超越人类智力,甚至掌控地球。然而,这种担忧在当前的数学假设和常识基础上,并非完全合理。
递归自我改进AGI的潜在风险与现实考量
IBM的沃森超级计算机就是一个例子。为了让沃森更好地理解人类语言的细微差别,程序员爬取了urbandictionary.com网站,结果却意外地让沃森像水手一样咒骂,因为它无法区分礼貌对话和粗俗笑话。这表明AI在学习过程中可能会出现意外的结果。
人们对递归自我改进AGI的主要担忧在于,其优势可能会利用人类的弱点。它可能在智力上迅速超越人类,且没有道德准则来约束其行为和动机,其行动和动机未必会考虑人类的最佳利益。有人担心AGI的递归增长可能呈指数级,开启后几个月内就能控制地球。
但实际上,这种情况不太可能发生。原因如下:
- 算法复杂度的内在限制 :AI可以自我改进,创造新算法并大幅提高机器智能商数(MIQ),但仍受算法复杂度的固有极限约束。
- 边际收益递减规律 :随着投入越来越多的计算资源,性能提升却越来越小。
- 目标与自我改进的平衡 :有目标的AI需要为目标而工作,这会限制其用于自我改进的时间,因为在某个阶段,花费时间进行改进会阻碍目标的完成。
- 硬件改进的物流限制 :从矿石开采、提炼到计算机设计和制造的物流链,自然为限制一心追求硬件改进的AI提供了机会。
超级会员免费看
订阅专栏 解锁全文
21

被折叠的 条评论
为什么被折叠?



