人工智能的价值、法律人格及相关挑战
人工智能的价值与问题
人工智能作为先进算法的一个子领域,因其带来的诸多益处而备受关注。然而,它在决策方面存在诸多问题。目前的人工智能并不能完全替代人类决策,它可能存在嵌入性偏差,在决策能力上不如人类,其决策结果缺乏透明度,甚至可能违背公共利益。例如,2018 - 2019 年,波音 737 Max 准自动驾驶线控系统在几个月内发生两次坠机事故,这凸显了人工智能复杂性带来的难题,飞行员难以应对突然需要在困难情况下手动飞行,或者难以纠正计算机系统做出但自己无法理解的飞行决策。
同时,人工智能的应用也引发了一些严重的事故。2018 年 3 月,一辆自动驾驶的优步汽车在测试时撞上并撞死了一名推着自行车过马路的妇女,这起事故是由汽车维护问题、人类安全备份司机的失职以及人工智能决策失误共同导致的。
尽管人工智能决策存在局限性、可能存在偏差、有黑箱问题、存在公私利益冲突以及面临复杂性和优越性萎缩等问题,但对于公共部门、私营企业及其客户来说,成本是推动人工智能决策发展的巨大动力,因为与人类决策相比,人工智能能节省大量成本。
人工智能的法律人格探讨
对于人工智能的法律地位,有几种不同的观点。首先,人工智能可以被视为财产,如果因其造成损害,客户、所有者或生产者需承担责任。其次,可以将人工智能实体视为“半自主存在”,赋予其类似于儿童或精神残疾者的合法地位。最后,也可以将人工智能视为完全自主的存在,就像公司一样。
欧洲议会的一项决议暗示了赋予人工智能某种形式的法律人格。欧盟引入了特定类别先进机器人的注册系统,决议强调,根据风险管理方法,有能力“降低风险并应对负面影响”的一方应承担责任,且责任应与给予机器人
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



