AI 罪责判定:概念、标准与实践
1. AI 罪责判定的难题
在探讨 AI 罪责问题时,一个普遍观点是,即便 AI 有意识且可被视为对某行为负有法律罪责,也难以确凿判定其罪责,因为了解 AI 决策的实际过程极为困难。AI 透明度的局限只是潜在法律问题的一个来源。这里要讨论的是,当 AI 的行为从法律角度看应受谴责时,如何确定负责该 AI 的人的罪责,或 AI 自身的罪责。
几个世纪以来,类似问题一直存在。由于法律责任与道德责任相关联,法律中的罪责判定是从被判定主体对行为本身的视角来看待的。判断一个生物对其行为的心理态度,需要洞察其心理状态。对于人类而言,在一定程度上,人类之间的心理状态是可认知的。在认知科学领域,社会认知理论主要由两种范式主导:
-
理论论(TT)
:假设社会认知是主体根据民间心理学对他人进行主动推断。
-
模拟论(ST)
:有推论和亚个人两种形式。推论性 ST 假设社会认知基于主体自身的心理模型运作;亚个人或神经 ST 假设镜像神经元系统为社会认知提供了一种快速、无意识的机制,无论执行动作的是自己还是他人,该系统都会被激活。
-
互动论(IT)
:最近提出的理论,假设对他人心理、意图和信念的感知是直接、非推论性且互动的,反对 TT 和 ST 的表征主义以及与具身互动的分离。
这些假设表明,自然科学倾向于证实人类能够洞察他人的心理状态,从科学角度看,将罪责归咎于人类的法律实践似乎是有效的。然而,当需要洞察非人类生物的心理状态以判定罪责时,问题就出现了。例如,动物曾被依法进行刑事起诉和惩罚,如何洞察动物的心理态度并判定其有罪呢?在从工业前社会向工业社会过渡的时期,由于工业过程日益复杂,损害事实的根源难以确定,特定行为与其结果之间的因果关系也更难识别和证明。那么,当由机器和人组成的单元违法时,如何确定其心理状态?当法人在法律交易中实施的行为若由自然人实施会被认定为刑事犯罪或侵权时,又如何确定其心理状态呢?
2. 罪责的概念模型
如果将罪责视为一个以复合原型为中心、通过约定组织起来的辐射性概念,而非单一概念,问题就更容易探讨。从语言使用来看,典型的罪责由以下理想化认知模型(ICM)组成:心理、道德、责任、谴责、个人主义与集体主义、宗教、原创性与社会关系、不完美与完美、错误和法律。以下是不同词汇所对应的 ICM 集合:
| 词汇 | 对应的 ICM 集合 |
| ---- | ---- |
| blame(责备) | 谴责、道德、不完美 ICM |
| guilt(内疚) | 心理、道德、谴责、个人主义、不完美、刑法、法律 ICM |
| collective guilt(集体内疚)和 collective responsibility(集体责任) | 心理、道德、责任、谴责、集体主义 ICM |
| sin(罪恶) | 宗教、谴责、不完美、原创性 ICM |
| fault(过错) | 错误、责任、谴责、社会关系、法律 ICM |
| corporate fault(企业过错) | 错误、谴责、社会关系、集体主义 ICM |
| negligence(疏忽) | 不完美、错误、责任、谴责、社会关系、民法、法律 ICM |
| intentionality(故意) | 完美、心理、谴责、责任、社会关系、刑法、法律 ICM |
如果罪责是一个辐射性范畴,其成员之间仅存在家族相似性,且该范畴可根据需要变化和发展。如今,并非所有罪责范畴的元素都局限于“拟人化锚点”,因此,出现新的、不太典型的罪责实例,如与 AI 相关的罪责,是很自然的。
3. 法律罪责的定义与性质
在当代西方法律文化的不同国家的民法体系中,责任概念通常与某种模型相关联。DCFR 对两种罪责进行了明确区分和定义:
-
故意(Intention)
:当一个人有意造成某种类型的损害,或者明知其行为会或几乎肯定会造成该类型的损害而实施该行为时,即为故意造成法律相关的损害。
-
疏忽(Negligence)
:当一个人的行为未达到法定条款为保护受损方免受该损害而规定的特定注意标准,或者未达到在该情况下一个合理谨慎的人所能期望的注意程度时,即为疏忽造成法律相关的损害。
可以注意到,故意造成损害的人肯定是恶意行事;而疏忽造成损害的人虽然是善意行事,但从某些标准来看,其行为并不正确。DCFR 对善意和公平交易的定义进一步证实了 Gazzaniga 的观点,即法律罪责不是关于心理状态,而是关于社会契约。那些背叛他人信任、言行不一、未达到法律要求或声明标准的人在法律上应承担罪责并受到谴责。罪责不是关于心理状态的自主概念,而是关于实体行为相对于社会认可和法律规定标准的公平性的关系概念,是关于履行社会契约的公平性。
4. AI 社会契约的条件与信任基础
要将这些概念应用于新兴技术领域,首先要确定关于 AI 的社会契约的最一般条件以及人们对 AI 产生信任的来源。社会契约的一方是具有法律主体性并依法对特定行为负责的实体。如果 AI 在法律规定的范围内具有法律主体性,且能够参与社会生活,那么它就可以成为社会契约的一方。
人们对 AI 技术的信任基于以下事实假设:
1. 每个 AI 都实现一个精确确定、社会认可并声明的功能,而非其他功能。
2. 每个 AI 都能够在给定情况下以最大效率正确实现其功能。
3. 上述两个条件由国家和法律进行控制。
目前,公众正在讨论第三个条件。例如,有人提议引入特殊的注册和认证系统。注册和认证的形式尚未完全确定,但对于高风险 AI 的提案中提到,注册应记录 AI 要执行的功能以及预期的效率程度。即使为风险最高或最有影响力的 AI 系统提供了通用(全球、欧洲或国家)注册系统,也应为低风险系统创建不太重要的(区域、地方、行业)注册系统,确保所有 AI 系统都纳入注册/认证体系。未注册或认证的 AI 系统应被视为非法并从市场上淘汰。
在创建这些法律制度时,应承认两个法律推定:
1. 每个 AI 都实现其声明的功能,而非其他功能。
2. 每个 AI 都能够在给定情况下以最大(声明的)效率实现该功能。
这些法律推定是可反驳的推定。实际上,AI 可能出现以下情况:
1. 未实现其声明的功能,而是实现了其他功能。
2. 实现了其声明的功能,但方式不当或效率低下,从而造成损害。
反驳第一个推定意味着认定 AI 具有故意;反驳第二个推定意味着认定 AI 存在疏忽。以下是具体的判定流程:
graph LR
A[AI 行为审查] --> B{是否实现声明功能}
B -- 否 --> C{是否满足反驳条件}
C -- 是 --> D[认定 AI 具有故意]
B -- 是 --> E{实现功能是否有效}
E -- 否 --> F{是否存在免责情况}
F -- 否 --> G[认定 AI 存在疏忽]
如果要认定 AI 未实现其声明的功能,而是实现了其他功能,需要反驳推定 1,证明 AI 的不公平和类似恶意的行为。可以通过以下方式实现:
- 由 AI 的开发者确认(开发者设计了声明的功能,能够识别异常)。
- 证明 AI 被“黑客攻击”。
- 情况以法律确定的高度可能性表明,AI 未实现其规定的功能,而是实现了其他功能。
如果 AI 实现了其声明的功能,但方式不当或效率低下,应认定其存在疏忽,除非:
- 不当或低效是由 AI 开发者或 AI 自身无法影响的情况造成的,例如可用数据集不允许产生其他结果。
- 不当或低效是由受损方自身造成的。
考虑到当代私法中关于疏忽的概念以及注册的必要性,可以说每个 AI 的注意标准将通过其在注册或认证中的相应记录单独确定。这些标准会因 AI 的类型和型号而异,但应在法律规定的一般范围内。需要强调的是,这些一般的法律限制不应由民法确定,而应是规范 AI 注册或认证的行政法环境的一部分。尽管一些提议的免责条款可能类似于免除主体严格责任的法定免责条款,但这里提出的是一个罪责模型。实际上,损害并非应用该模型和认定罪责的必要条件,即使损害被避免,AI 的行为仍可能是故意或疏忽的。在民法中,后果可能不是赔偿损失,而是其他安排,如因信任或声誉受损而终止双方之间的协议。
AI 罪责判定:概念、标准与实践
5. AI 罪责判定的具体情形分析
为了更清晰地理解 AI 罪责的判定,我们可以通过具体情形来进一步分析。
5.1 AI 故意行为的判定情形
当出现以下情况时,可认定 AI 具有故意:
-
开发者确认异常
:例如,某医疗 AI 系统被声明用于疾病诊断,但开发者发现其实际在进行一些未经授权的基因数据分析。开发者凭借对系统设计的了解,能够确认这种功能的偏差属于异常情况,此时可认定该 AI 具有故意。
-
黑客攻击证据
:若一个自动驾驶 AI 系统原本按照设定路线行驶,但突然改变路线并导致事故,经过技术分析发现系统被黑客攻击,篡改了行驶指令,那么可以认定该 AI 因被攻击而表现出了类似故意偏离声明功能的行为。
-
高度可能性的情况推断
:在金融交易领域,一个 AI 交易系统被设定为根据特定算法进行低风险投资,但却频繁进行高风险的杠杆交易。从交易数据和市场情况来看,以法律确定的高度可能性可以推断,该 AI 没有实现其规定的低风险投资功能,而是进行了其他高风险操作,此时可认定其具有故意。
5.2 AI 疏忽行为的判定情形
当 AI 实现了声明功能,但存在不当或低效情况时,若不存在免责情况,则认定其存在疏忽。以下是一些具体例子:
| 领域 | AI 声明功能 | 不当或低效表现 | 免责情况判断 | 判定结果 |
| ---- | ---- | ---- | ---- | ---- |
| 物流 | 包裹快速分拣 | 分拣速度远低于声明标准,导致包裹积压 | 可用数据集正常,受损方无过错 | 认定 AI 存在疏忽 |
| 教育 | 智能辅导作业批改 | 批改错误率过高,影响学生学习 | 无证据表明是数据或学生原因导致 | 认定 AI 存在疏忽 |
6. AI 罪责判定的重要性及影响
AI 罪责判定具有多方面的重要性和影响,以下通过表格形式进行总结:
| 重要性及影响方面 | 具体内容 |
| ---- | ---- |
| 保障社会公平正义 | 明确 AI 或相关责任人的罪责,确保在 AI 造成损害时,有相应的责任承担机制,维护社会的公平和正义。 |
| 促进 AI 健康发展 | 通过合理的罪责判定,促使 AI 开发者更加注重系统的安全性、可靠性和合规性,推动 AI 技术的健康发展。 |
| 保护用户权益 | 当用户因 AI 的不当行为受到损害时,罪责判定为用户提供了维权的依据,保障了用户的合法权益。 |
| 完善法律体系 | AI 罪责判定的研究和实践有助于填补现有法律在新兴技术领域的空白,完善整个法律体系。 |
7. AI 罪责判定面临的挑战与未来展望
尽管我们已经探讨了 AI 罪责判定的相关概念和方法,但在实际操作中仍面临诸多挑战:
-
技术复杂性
:AI 系统的算法和决策过程往往非常复杂,难以完全理解和解释,这给判定其是否实现声明功能以及是否存在故意或疏忽带来了困难。
-
法律适应性
:现有的法律体系可能无法完全适应 AI 技术的快速发展,需要不断进行调整和完善,以确保罪责判定的准确性和公正性。
-
责任界定模糊
:在一些情况下,很难明确区分是 AI 自身的问题,还是开发者、使用者或其他相关方的责任。
未来,随着 AI 技术的不断发展,我们需要进一步加强对 AI 罪责判定的研究和实践。可以从以下几个方面入手:
-
加强技术研究
:提高对 AI 系统的透明度和可解释性,以便更好地了解其决策过程,为罪责判定提供更准确的依据。
-
完善法律制度
:制定专门针对 AI 的法律法规,明确 AI 罪责判定的标准和程序,确保法律的适应性和有效性。
-
建立多方合作机制
:政府、企业、科研机构和社会公众等各方应加强合作,共同推动 AI 罪责判定的研究和实践,形成良好的社会环境。
graph LR
A[当前 AI 罪责判定现状] --> B{面临挑战}
B -- 技术复杂性 --> C[加强技术研究]
B -- 法律适应性 --> D[完善法律制度]
B -- 责任界定模糊 --> E[建立多方合作机制]
C --> F[未来更准确的罪责判定]
D --> F
E --> F
总之,AI 罪责判定是一个复杂而重要的问题,需要我们不断探索和实践,以确保 AI 技术在法律和道德的框架内健康发展,为社会带来更多的福祉。
超级会员免费看
47

被折叠的 条评论
为什么被折叠?



