AI伦理:企业如何构建负责任的人工智能系统

里德·布莱克曼:人工智能的伦理

《伦理机器:完全无偏见、透明且尊重的人工智能简明指南》一书的作者解释了为什么追求合乎伦理的人工智能的公司最终必须将责任归于其高层领导。

当某中心新兴技术与智能平台部门的高级实践经理在2020年底创建某机构云服务的“负责任AI”团队时,便开始寻找可以合作的思想领袖。人工智能和机器学习技术是变革者,具有显著的上升空间,但也存在潜在的负面影响。部署这些强大技术时伴随着一系列潜在问题——从法律关切到伦理困境。

资深商业领袖们逐渐意识到,他们的组织缺乏相应的人员、制度知识和实践来解决这些风险。某机构的客户正在寻找关于如何负责任地使用基于AI的工具的指导。

随着某机构对负责任AI做出坚定承诺,该经理找到了她的第一位合作伙伴。里德·布莱克曼是一位前哲学教授转行的企业家,他于2018年投身于这一领域,创立了咨询公司Virtue,旨在帮助各公司在组织内部建立负责任的人工智能和机器学习实践。

布莱克曼的新书是一本关于如何应对一些艰巨且可能充满危险领域的操作指南。

强大的技术,意想不到的后果

对布莱克曼而言,商业中的AI伦理实际上是关于智能系统的设计,这些系统旨在处理比人类高效得多的特定、狭窄任务。机器学习,由看似无穷无尽的数据宝库驱动,使得自动决策能够产生比以往任何时候都更快速、更准确的结果。

不幸的是,事实证明,此类系统也可能产生有缺陷或意想不到的结果,对公司的声誉和利润造成重大损害。基于AI的产品和服务越是融入全球经济,就越清楚地表明监督至关重要。

通过一位参与AI工作组的共同同事介绍,双方很快意识到他们有相似的目标,并建立了合作关系。虽然许多高管认为“负责任AI”有点深奥,但布莱克曼持相反观点。

“对他来说,AI伦理不是模糊的,”该经理说,“他有办法围绕这个话题展开对话,帮助人们就什么是好的和正确的达成一些具体的想法。”

他们共同为某机构的客户举办研讨会,并提供这本书作为指导,探讨如何思考和实施有效的内部流程和计划。

响应“警报”

布莱克曼的哲学背景被证明是思考AI影响的有用基础。毕竟,道德上负责任的行为是大多数关于人性对话的核心。但在教学十年后,他对学术环境感到厌倦。

布莱克曼有创业倾向:在读研究生时,他曾创办了一家成功的烟花批发企业。他注意到,尽管仍处于起步阶段,但商业中AI的采用已经激增。离开学术界(他曾在科尔盖特大学和北卡罗来纳大学教授哲学)的决定,是基于那种创业热情以及意识到一个新市场正在形成。

“那是2018年,我意识到工程师们正在围绕AI对社会即将产生的影响敲响警钟,”布莱克曼说,并引用了某分析公司丑闻的余波。

到2020年和2021年,围绕AI伦理和责任的讨论达到了白热化程度。布莱克曼为诸如《哈佛商业评论》和TechCrunch等刊物撰写了有关该主题的文章。他以一个不同寻常的视角来处理这个问题。他区分了两类群体:为善的AI和不作恶的AI。

“‘为善的AI’群体的人问自己一个问题:‘我们如何利用AI这个强大工具创造积极的社会影响?’”布莱克曼解释道。“这通常是企业社会责任的范畴。他们的目标背后通常没有商业模式。”

“不作恶的AI是关于风险缓解。这些人有一个目标,这个目标可能在伦理特性上存在或不存在,比如向人们发放贷款、面试求职者、诊断人们的各种疾病并推荐治疗方案,他们问自己:‘我们如何使用AI来帮助我们做这些事情,同时又不至于在伦理上搞砸?’”

这个问题是企业领导者的首要关切。因为随着这些产品和服务触及伦理边界,其实施会对商业声誉产生严重影响。

通往“为善”与“不作恶”AI之路

布莱克曼说,公司长期以来一直在努力寻找创建和维护伦理健全组织的方法,而AI增加了新的复杂性。确保他们使用的工具准确、可靠并基于可靠的科学是一项具有挑战性的任务。

他指出的另一个问题是,高层领导,特别是CEO和COO,认为这是一个需要工程师和数据科学家解决的技术问题。布莱克曼坚持认为,这是错误的。

“最终,这取决于高层领导,”布莱克曼说。“初级工程师和数据科学家想做正确的事,但事实是,只有在你有自上而下的正确实施策略的条件下,你才能系统地设计、开发、采购和部署合乎伦理的工具。更重要的是,你无法仅通过数学方法解决这些问题。数据科学家需要相关专家的支持,这些专家可以帮助做出必要的定性判断,这是任何稳健的伦理风险评估的必要组成部分。”

布莱克曼坚持认为,如果领导者愿意了解足够多关于AI和ML如何与伦理相交的知识,伦理并非“模糊”或难以理解和缓解。

他说,大多数组织对这一新挑战反应缓慢的原因是,他们可能要么不知道存在问题,要么“他们可能知道存在问题,但没有人负责。如果没有人负责,就不会有预算来解决问题。公司的行为准则通常过于笼统和模糊,无法有效解决这个问题。”

“高层领导在智力上被这个话题吓倒了,”布莱克曼说。“他们说,‘这是数据科学家要弄清楚的事情。不是我。’”

在他的书中,布莱克曼阐述了他认为组织为了理解AI伦理必须理解的关键区别:结构与内容。等式的内容面侧重于需要避免的伦理问题。结构面旨在如何减轻这些风险。

布莱克曼认为,大多数领导者对内容面只有肤浅的了解:偏见是坏的,公平是好的,黑箱算法是可怕的。那么,他们接着问,我们的结构应该是什么样子?“他们回答得太快了,”布莱克曼说,“然后就会遇到问题。如果你在内容面上更深入,那么结构面就会自然显现。”

他建议,更深入意味着探索偏见的表现形式,理解歧视性影响的概念,并制定强有力的AI伦理声明。对内容面有了全面的理解,企业就可以创建适当的程序、流程、政策和基础设施来识别和降低风险。

发展合作伙伴生态系统

对该经理来说,建立“合作伙伴生态系统”是扩展某机构云服务工作规模的关键方法。客户开始越来越多地询问关于AI和ML的问题。

“我们一贯的回应方式是通过我们的负责任AI框架,在组织中实例化原则,我们在参与中提供的战略指导,以及利用符合负责任AI原则的服务和工具,”该经理解释道。

“我们已经打开了潘多拉魔盒,无法关上,”该经理说。“我们如何处理我们拥有的这种巨大的AI力量,并确保它不造成伤害?”

与某机构云服务合作是一个强有力的伙伴关系,布莱克曼补充道。“将我们在定性评估、伦理技术和软件工程方面的集体经验结合起来为客户服务具有巨大价值,”该经理表示同意。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值