理解自动驾驶作为制度活动:应对歧视问题的新途径
1. 引言:歧视与自动驾驶
随着机器学习和人工智能融入技术系统与应用,人们开始担忧其结果或服务存在偏差甚至歧视性。自主决策或行动的系统,若偏袒某些用户群体,会受到特别审查。
当人工智能对不同种族或族裔群体区别对待时,这种歧视性就更为明显。例如,一个用于选美的智能系统对肤色较深的参赛者存在偏见。在信用评级或犯罪画像等领域使用人工智能时,也引发了歧视担忧。
一个系统若基于不合理或不恰当的理由,剥夺个人或群体的机会、物品,或赋予不良结果,就构成不公平歧视。以贷款申请被拒或被列为犯罪嫌疑人为例,如果这些结果并非基于相关申请标准,就被视为不合理。像种族、性别、宗教等属性,不应影响任何决策,否则在法律上被认定为歧视。
自动驾驶系统出现偏差的原因主要有两个:
- 使用不平衡数据进行模型训练 :某些群体在训练数据中占比失衡。如面部识别技术,因训练数据中白种人面部比例过高,导致其对其他肤色人群识别不可靠。
- 系统基于受人类影响的过程数据 :从而延续了社会中普遍存在的一些偏见。
在自动驾驶领域,不平衡的训练数据会增加车辆忽视深肤色行人的概率。例如,相关研究发现,最先进的行人检测系统对白人的识别效果更好,而识别深肤色行人存在困难。
Hin - Yan Liu提出,未来自动驾驶车辆将以车队形式出现,遵循相似行为原则,这可能导致结构性歧视。这种歧视会使原本个体化的结果网络化,在车队中被放大,从而相对稳定地重新分配利益和负担给某些人群。
超级会员免费看
订阅专栏 解锁全文
1345

被折叠的 条评论
为什么被折叠?



