人工智能与法律主体性:争议与思考
1. 欧洲议会决议引发的争议
欧洲议会在2017年的决议中呼吁委员会探索、分析并考虑相关法律解决方案的影响,特别是为机器人建立特定法律地位。该方案至少会将最复杂的自主机器人确立为电子人,对其造成的损害负责,还可能将电子人格应用于机器人自主决策或独立与第三方互动的情况。
然而,这一立场引发了不同意见。欧洲经济和社会委员会在3个月后接受的意见中表示,反对赋予机器人或人工智能任何形式的法律地位,因为这会带来不可接受的道德风险。责任法的预防和行为纠正功能可能会因制造商不再承担责任风险而消失,同时还存在对这种法律地位不当使用和滥用的风险。此外,285位政治领袖、人工智能/机器人研究人员、行业领袖、身心健康专家、法律和伦理专家在2018年4月签署的公开信中也表达了类似的反对意见。
受这些争议的影响,欧洲议会在2020年10月20日的决议中改变了立场,明确指出人工智能系统既没有法律人格也没有人类良知,其唯一任务是服务人类。同时,在关于人工智能技术发展的知识产权权利的决议中,欧洲议会指出,赋予人工智能技术法律人格是不合适的,这会对人类创造者的激励产生负面影响。
2. 法律主体性与法律人格的概念
在探讨人工智能的法律主体性或法律人格问题时,有两个重要的前提需要明确。首先,我们关注的是概念的描述性形象,而非规范性方面,即关注谁或什么通常被视为法律主体或法律人格,以及在此基础上对人工智能未来法律主体性或法律人格的预测。其次,虽然法律人格和法律主体性常被区分,但在民法领域,它们紧密相连且使用较为随意。
法律主体性是一个复杂的属性,具有可分级、离散、不连续、多面和灵活的特点。它可以由不同类型的元素(如责任、权
超级会员免费看
订阅专栏 解锁全文
77

被折叠的 条评论
为什么被折叠?



