人工智能的法律责任与审判指南
1. 阿西莫夫机器人定律与AI法律的必要性
在规范人工智能的不当行为方面,阿西莫夫于1946年提出的机器人三定律具有重要意义。这三条定律旨在为有意识的机器制定一套行为规则:
- 机器人不得伤害人类,或因不作为而使人类受到伤害。
- 机器人必须服从人类给予它的命令,但前提是这些命令不与第一定律冲突。
- 机器人必须保护自己的存在,只要这种保护不与第一或第二定律冲突。
到了1985年,阿西莫夫在《机器人与帝国》中又增加了第零定律:机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。
在阿西莫夫的《我,机器人》中,地球由主机器统治,机器人三定律的设计是为了确保人类对自己创造的强人工智能保持优势。然而,我们需要考虑如果一个失控的机器人对社会有益的想法与这三条定律相冲突会发生什么。显然,为人工智能制定法律条文现在变得至关重要。就像我们希望未来永远不会发生的任何其他核心国际犯罪一样,我们需要合适的法律来预防和制裁目前未知的威胁。
2. 人工智能的刑事责任问题
强人工智能没有灵魂,那么能否对缺乏精神、灵魂和意识的实体施加刑事责任呢?刑法必须做好应对强人工智能的准备,并根据机器和/或接口的能力制定法律。
加布里埃尔·哈勒维在《当机器人杀人时》中提出,对犯罪的智能机器施加刑事责任必须满足两个累积条件:法律和犯罪者。刑法的四个法律原则必须得到满足,即合法性、行为、罪责和个人责任。而犯罪者需要满足犯罪的事实和心理要素,但强人工智能很难满足犯罪意图(mens rea)或疏忽或严格责任的条件。关键在于犯罪者对犯罪的了解以及对事实事件结果的意愿,即是否是故意行为(可预见性和推定)、
人工智能的法律责任与审判
超级会员免费看
订阅专栏 解锁全文
622

被折叠的 条评论
为什么被折叠?



