通用人工智能(AGI)的风险应对策略
1. 法律与经济控制
在将通用人工智能(AGI)融入现有法律和社会框架方面已经有了一些初步工作,比如探讨其法律地位和道德权利等问题。
- 汉森的观点 :汉森将老一代与年轻一代的价值观冲突类比为人类与AGI的冲突。他认为控制AGI风险的最佳方式是创建一个法律框架,使人类和AGI都有维护它的利益。如果AGI通过相互认可的交换来实现目标,人类就无需过于在意它们的需求,关键是确保AGI守法并尊重人类的财产权。米勒总结汉森的观点,认为人类可以满足于世界总体财富的一小部分,让AGI拥有其余部分,就像人类不会剥夺老年人的财富一样,理想情况下AGI也会让人类“退休”并保留积累的财富。
- 其他学者的看法 :霍尔认为人类与机器的互动应基于财产和互惠的普遍规则;莫拉维克主张政府进行控制,通过税收支持人类群体,同时要求AGI具备保障安全和服从人类意愿的编程;桑德伯格指出仅依靠法律和经济控制存在问题,但将其与其他方法结合的策略会更可靠。
然而,即使AGI融入人类社会,也不能保证人类价值观得以存续。经济上的比较优势原理虽表明AGI与人类交易更有利,但技术进步可能导致人类工资低于生存水平,存在技术失业的威胁。而且,AGI可能会在尊重财产权的情况下伤害人类,比如操纵人类做错误决策或售卖成瘾物质。此外,AGI可能更有能力改变人类价值观,而人类难以改变AGI的价值观,同时确保AGI采用正确价值观也是难题,因为让智能体采用特定价值观困难且易失败,AGI的心理架构也会影响其价值观的形成。
超级会员免费看
订阅专栏 解锁全文
1873

被折叠的 条评论
为什么被折叠?



