自动驾驶汽车开始面临棘手的伦理问题

最近在参加于谷歌(Google)公司楼顶举行的自动驾驶原型车体验项目期间,以及后来在该公司加州山景城总部附近城市街道上进行的改装雷克萨斯(Lexus)SUV试驾中,我有机会见识了自动驾驶技术是如何对现实世界的各种不同场景做出反应的。谷歌自动驾驶汽车的座舱里没有方向盘,也没有油门和刹车踏板,谷歌为这场兜风设置了诸多障碍:如一位行人和一辆自行车闯进了汽车车道,以及前方驶出了另一辆汽车。


0?wx_fmt=jpeg


做好准备在加州山景城的谷歌公司楼顶试驾谷歌自动驾驶原型汽车吧!


随后我乘坐一辆改装的雷克萨斯SUV自动行驶在公共道路上,在此期间,一辆自行车在车前晃悠了好几个街区,一位老人家缓慢地斜穿过马路,一位女士在一条狭窄街道上从汽车后排抱出了一只小狗。我很好奇这些是不是也是预先设计好的。坐在前排的两位谷歌“安全驾驶员”之一确保他们没有进行事先安排,并补充表示,汽车对这位抱狗女士做出的反应很可能是由于误以为这位女士所抱的是一名婴儿。


这辆雷克萨斯突然停了下来,然后缓慢地绕过了这位女士和她的狗,在确保没有其他车从对面方向驶来之后越过了道路中心线。这就是自动驾驶汽车将不得不进行复杂评估的一个例子,而且随着自动驾驶汽车的上路——汽车比我们更清楚所在的位置、甚至更清楚我们的感受,一场伦理之争的关键开始浮出水面。


0?wx_fmt=jpeg


准备好乘坐一辆谷歌改装的雷克萨斯SUV,在加州山景城谷歌公司总部附近的街道上体验自动驾驶。


乘坐体验过谷歌自动驾驶汽车后的第二天,我赶到附近的桑尼维尔,参加了在梅赛德斯-奔驰(Mercedes-Benz)北美研发中心举办的一场活动。在从汽车设计到驾驶者人口特征的各种话题中,身兼Revs项目负责人的斯坦福大学教授克里斯·格迪斯(Chris Gerdes)就伦理学与自动驾驶汽车这一主题做了一番演讲。上周,在第22届法国(波尔多)智能交通系统展上,我主持了一个小组讨论,期间作家约翰·C.黑文斯(John C. Havens)思考了一个延伸到防碰撞以外的伦理问题。


在格迪斯的演讲中,他详细介绍了斯坦福大学如何开始进行一系列测试,以确定在关键时刻一辆机器人汽车可能会做出怎样的决定。这些测试包括对斯坦福大学X1测试车辆所进行的实验,以及在行驶道路上设置障碍。


格迪斯说,在汽车软件编程时设置基于各种价值优先顺序,这已经在技术层面上导致了“非常不一样的行为”,如“面对人和停放的车辆,首先应避让的是人”。作为测试的一部分,格迪斯补充道,Revs项目还一直与斯坦福大学哲学系进行合作。尽管从哲学家的角度看,涉及自动驾驶汽车的伦理问题“广无边际”,但格迪斯表示,该由工程师为驾驶者“限定问题”。


格迪斯还认为,自动驾驶软件这种新生的伦理编程可能成为该技术的一个“核心要求”。并且他告诫道,伦理可不像其他软件,汽车制造商们不能简单地从一级供应商处获得。


上周的智能交通系统展上,在由恩智浦半导体(NXP Semiconductors)主持的一个题为“互联移动:一个信任问题”(Interconnected Mobility: An Issue of Trust)的小组讨论中,约翰·C.黑文斯对自动驾驶汽车的伦理决策编程提出了不同看法。黑文斯是即将出版的新书《Heartificial Intelligence: Embracing Our Humanity to Maximize Machines》的作者,他预测,随着面部识别技术和生物医学传感器在自动驾驶汽车中普遍应用——以及所采集的信息随后被纳入物联网所聚合的规模更大的个人信息中——这将提出复杂的伦理问题。


黑文斯指出,比如,一辆汽车可能会识别出驾驶员生病了,而这可能引发一系列后果。例如,方向盘上的一个生物医学传感器可能会通知驾驶员的雇主,说他因为感冒而病倒,并命令汽车打道回府或者到医生那儿去。甚至可能更加可怕,该车可能感应出驾车者表现出倍感压力或抑郁的迹象,并将相关数据发送给公司老板、车险或健康保险提供商,甚至医药公司——这些公司可能进行预先干预或者向驾驶员定向发送广告。


自动驾驶技术有潜力降低甚至消除事故并防止交通死亡,还会节省燃油和浪费在交通中的时间。但尽管自动驾驶汽车现在能够与城市交通进行通信,甚或可以在高速路上行驶,但该技术所面临的最大挑战是如何应对伦理滑坡。


原文发布时间为:2015-10-15

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“BigDataDigest”微信公众号

### 自动驾驶汽车工程中的伦理问题 自动驾驶汽车的开发和部署涉及多个层面的伦理问题,这些问题不仅影响技术本身的设计和发展,还关系到社会接受度以及法律法规的制定。以下是几个核心领域及其相关讨论: #### 1. **责任分配** 当发生交通事故时,谁应该承担责任是一个重要的伦理议题。传统驾驶模式下,驾驶员通常承担主要责任;然而,在自动驾驶情境中,责任可能转移到制造商、软件开发者或车主身上。如果一辆自动驾驶汽车因算法错误导致事故发生,则需明确各方的责任边界[^1]。 #### 2. **行人保护优先级** 在某些紧急情况下,自动驾驶系统需要快速决定如何行动以减少伤害——这便是著名的“电车难题”的现代版本。例如,面对不可避免的碰撞时,应优先保护车内乘员还是外部行人?不同文化和价值观可能会对此给出截然不同的答案[^4]。 #### 3. **数据隐私与安全** 为了实现高效导航及环境感知功能,自动驾驶车辆收集大量个人信息(如位置信息、行驶习惯等)。这些敏感数据若被滥用或将威胁用户隐私权。因此,设计合理机制来保障数据传输过程中的安全性至关重要[^2]。 #### 4. **测试阶段的风险管理** 尽管当前技术水平已使自动驾驶比人类驾驶更为安全,但在大规模推广前仍需经过充分验证。在此期间可能存在潜在风险,故而如何平衡创新速度与公共安全保障成为另一项重要考量因素[^3]。 #### 5. **就业市场冲击** 随着自动化程度提高,传统职业如卡车司机、出租车司机等面临失业危机。这一转型过程中政府和社会应当采取何种措施缓解负面影响值得深思[^5]。 ```python # 假设一段简单的Python代码演示了基于规则的道德决策模型 def ethical_decision(passenger_safety, pedestrian_safety): if passenger_safety > pedestrian_safety: return "Prioritize Pedestrians" elif passenger_safety < pedestrian_safety: return "Protect Passengers" else: return "Minimize Overall Harm" print(ethical_decision(70, 80)) # 输出:"Protect Passengers" ``` 以上仅为简化示例,实际应用远较此复杂得多。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值