自动驾驶中的伦理思考与理想应用探索
1. 引言
过去十年,人们对自动驾驶汽车(AVs)伦理影响的关注呈指数级增长。哲学家和伦理学家致力于研究算法输出替代人类决策背后的伦理意义。一方面,他们强调这一问题的复杂性;另一方面,也尝试将伦理理论转化为算法来应对挑战。当这些转化被视为机器伦理的成功范例时,就出现了关于强制伦理设置和非强制伦理设置的讨论。强制伦理设置意味着设计者依据国家和超国家规则选择应用的伦理理论;非强制伦理设置则允许乘客(尤其是车主)从“利己”到“利他”的伦理理论中进行选择。
机器伦理为检验伦理理论的意义提供了有前景的途径,但也存在失去伦理理论哲学本质的风险。从柏拉图开始,哲学强调从整体视角理解具体事物,即从普遍角度看待特殊。普遍、理想和抽象的观点并非否定现实和经验,而是理解、预测现实并推动其进步的有力工具。因此,哲学家不应局限于分析现象,而应通过抽象思考,为个体理想的思考和行为提供愿景,这与仅基于经验视角的愿景截然不同。接下来,我们将以自动驾驶汽车为例,探讨人类理想地使用技术的方式和原因。
2. 道德机器实验的实证视角
道德机器实验由麻省理工学院设计,是一个在线平台,向人们提出自动驾驶汽车面临的道德困境。来自200多个国家的数百万人回答了诸如“自动驾驶汽车应该怎么做?”的问题。例如,一辆刹车突然失灵的自动驾驶汽车有两个选择:一是继续前行撞向混凝土屏障,导致车内三名乘客死亡;二是转向并穿过另一条车道的人行横道,造成三名行人死亡。
这些道德困境聚焦于九个因素:保护人类(而非宠物)、保持路线(而非转向)、保护乘客(而非行人)、拯救更多生命(而非更少生命)、保护男性(而非女性)、保护年轻人(而非老年人)、保护合法过马路的行人(而非乱穿
超级会员免费看
订阅专栏 解锁全文
82

被折叠的 条评论
为什么被折叠?



