AI治理:迈向繁荣未来
1. AI的透明度与信任构建
监管者也认为AI神秘、不可预测且像黑匣子。虽然可解释AI(XAI)方法已被开发用于追踪AI的决策路径,但随着神经网络复杂性呈指数级增长,XAI方法可能难以跟上。
特斯拉为其自动驾驶AI的决策过程进行可视化,这并非噱头,而是建立信任和可预测性的重要心理特征。预测的巡航线路闪烁越少,人们就越觉得系统自信,从而自身的信心和信任也会增加。特斯拉将群体AI训练与群体信任构建相结合,测试版驾驶员乐于测试其AI,他们知道自己为AI的设计和性能做出了贡献,同时通过无数YouTube报告宣传特斯拉及其自动驾驶功能。这种高度透明的方式为特斯拉赢得了强大且不断壮大的自动驾驶用户/粉丝社区,形成了难以被监管机构或竞争对手游说打破的变革动力。
2. 道德AI:为被喜爱而说谎
机器需要一定的道德并遵循伦理原则,以避免做出负面或歧视性决策。基于统计学习的偏见决策和缺乏宽容性是重要的伦理问题。我们或许应教会具有统计思维的机器统计宽容性甚至积极偏见,但积极偏见在许多情况下可能成为生存问题。
同时,应推动能接管人类繁重或危险活动的AI发展。例如,开发战斗AI的公司至少应开发同等数量的非军事医院用机器人。
公平性也是伦理的一个方面,包括AI对人类的公平(其中数据偏见是关键因素)以及AI与人类之间的公平。人类为了协作或高效驾驶会偶尔违反规则,AI更精确、快速且具备特殊沟通能力,这改变了游戏规则。人类因反应时间长需要更大车距,而AI可以靠得更近并及时刹车。
人类每天会多次说谎以维持社交关系,对话式AI是否也应能说善意的谎言呢?就像电影《星际穿越》中那样,我们可能需要为个人AI设定一定的
超级会员免费看
订阅专栏 解锁全文
42

被折叠的 条评论
为什么被折叠?



