人工智能:风险、伦理与应对策略
1. 人工智能立法难题
制定规范人工智能的法律绝非易事,因为人工智能运用了多种技术。过于严格的法律可能会阻碍其进步与发展。而且,人工智能技术发展迅猛,新的技术突破有时会使现有法律过时。例如,现有的规范对话和录音隐私的法律,并未涵盖亚马逊的Alexa和苹果的Siri等语音助手带来的挑战。这些数字助手收集数据并非用于分发,而是为了改进其机器学习算法,这给心怀恶意的犯罪分子提供了可乘之机。
2. 人工智能是否危险
人工智能系统能力的快速增长,让我们不禁思考使用人工智能所涉及的风险。虽然有人认为人工智能会迅速取代人类的工作,但大多数研究人员认为,超级智能的人工智能不太可能表现出人类情感,因此不必担心它会变得恶意。不过,人工智能在以下两种情况下可能会带来风险:
- 被编程用于破坏 :例如,自主武器是被编程用于杀戮的人工智能系统。如果被居心不良的人获取,这类武器可能会无意中引发人工智能战争,造成大量人员伤亡,甚至可能导致人类的终结。自主武器设计得极难“关闭”,一旦投入使用,人类可能很快就会失去对它们的控制。即使是狭义的人工智能,在获得自主性时也存在这种风险。想象一下,如果配备面部识别技术以及3D打印步枪、手枪或其他枪支的自主无人机出现,或者连接互联网的自动驾驶汽车被黑客攻击导致严重事故,后果将不堪设想。在医院里,越来越多的设备连接到互联网,如果这些设备被黑客攻击,黑客可能会对患者的身体造成严重危害。
- 目标实现方式具有破坏性 :人工智能可能被编程用于做有益的事情,但实现目标的方法可能具有高度破坏性。特别是当人工智能程序员要求机器完成任务,但没有明确界定目标时。
超级会员免费看
订阅专栏 解锁全文
18

被折叠的 条评论
为什么被折叠?



