自动驾驶汽车的伦理影响:挑战与困境
1. 自动驾驶汽车的训练
部署自动驾驶汽车的部分伦理依据在于,相较于人类驾驶员,它们犯错更少,因而对人类(及其他生物)造成的伤害也更小。这些机器在认知和身体反应上更具能力,面对相同情况时,它们拥有人类所没有的应对选项。不过,即便它们能力更强,最终仍可能遭遇两难困境。那么,该如何设计它们以应对这些情况呢?
如今正在测试的自动驾驶汽车都配备了某种形式的机器学习技术。机器学习与早期的人工智能(符号 AI)的区别在于其学习和创新能力。在经典编程(符号 AI 的范式)中,人类输入规则(程序)和待处理的数据,然后得出答案;而在机器学习中,人类输入数据以及期望从数据中得到的答案,机器则会生成规则,这些规则可应用于新数据以产生原创答案。
进行机器学习需要三个要素:
- 输入数据点,例如图片文件;
- 期望输出的示例,例如“海滩”“大海”等标签;
- 一种衡量算法表现的方法,即测量当前输出与期望输出之间的差距,以此作为反馈信号来调整算法的工作方式,这一调整步骤就是“学习”,该功能被称为“损失函数”或“目标函数”。
在自动驾驶汽车的情境中,程序员不会为车辆提供一个固定的评估方案来推导每种情况下的正确行动,而是向软件输入许多交通场景,并为每个场景指定正确的行动。程序会自行寻找内部参数和内部决策逻辑的最佳配置,使其能在所有这些场景中正确行动。就像人类一样,很难解释汽车在新情况下为何会表现出特定行为,因为没有指定“明确的规则”,决策是算法之前接触的众多交通场景的结果。
2. 自动驾驶汽车带来的伦理挑战
2.1 有争议的延伸
工程师需要设想的一些场景至关重
自动驾驶的伦理困境解析
超级会员免费看
订阅专栏 解锁全文
32

被折叠的 条评论
为什么被折叠?



