地球科学中的人工智能伦理
1. 引言
随着科技的进步,人工智能(AI)领域正迅速发展。许多被认为具有某种智能的系统正融入到日常运作中。例如,驾驶员可以松开方向盘,让车辆自动导航;医生和诊所能够更快速地分析数据集,提供更好的医疗服务。如今,数百万消费者与旨在与人类建立并维持信息链接的计算机程序进行交互,以实现特定目标,如了解不同地区的天气状况、接收空气质量警告,甚至量化与气候变化相关的风险。其中一些智能程序最近由人工智能驱动。
然而,随着人工智能的出现及其无处不在,有一些问题亟待解答,伦理问题也日益受到关注。因为消费者将难以区分他们是在与人工整理的信息还是基于人工智能的信息进行交互。这些问题部分源于人们过去对技术的特定感受。例如,2015 年,一名开发者使用提供基因信息的 API 拒绝用户访问应用程序,引发了社区的愤怒;2016 年,微软的聊天机器人在社交媒体上发布了被归类为极端种族主义的信息。我们需要理解这些事件,防止未来类似情况的发生,并从道德和伦理角度评判这些技术。
接下来将探讨在地球科学中实施人工智能系统时需要考虑的因素,以及实现更符合伦理的人工智能的标准、最佳实践和途径,包括使用更开放的数据集和无偏算法。
2. 前期工作
已有大量研究关注人工智能运行时引发的伦理问题。批评者研究了文化偏见在算法自动决策中的作用,以及人工智能系统如何导致对采样不足和代表性不足群体的歧视。可以预见,未来将出台许多关于地球人工智能伦理的法规和法律。
随着大型机器学习模型的出现,如用于文本的 GPT3、T5,用于图像的 ViT、DDPM,以及两者结合的 CLIP、DALL - E,社区对从大型数据集训练中产生的偏差产生了伦理担忧。这些
超级会员免费看
订阅专栏 解锁全文
30

被折叠的 条评论
为什么被折叠?



