工业数字化中的人工智能伦理考量与未来展望
1. 工业环境中人工智能的公平性与偏差问题
在工业环境里,基于人工智能的工业系统运行时出现的不公平现象,大多是由特定分类差异产生的算法偏差所致。算法偏差可能存在于人工智能算法或者训练数据中,这会引发不信任并导致结果失真,降低人工智能在工业领域的应用潜力。因此,识别人工智能系统中引入偏差的根本原因,并在基于人工智能的解决方案的整个生命周期内加以预防至关重要。行业利益相关者致力于支持科学进步和制定相关标准,以尽量减少人工智能偏差。
2. 透明度
在工业环境中实施值得信赖的人工智能解决方案,与公平性、问责制和透明度等要素密切相关。透明度指的是人工智能系统始终能够为其决策提供令人满意的解释,可由内部或独立的人类权威进行评估。若出现导致损害的故障,应能查明原因。人工智能的透明度需在基于人工智能的解决方案的整个生命周期内得到解决,包括概念、设计、部署、运行、维护、升级/更新和处置等阶段。在许多情况下,算法透明度和算法决策是实现人工智能透明度的起点。在工业环境中,一些人工智能组件可能基于黑盒解决方案,因此在设计基于人工智能的解决方案时,需考虑开发过程的开放性,以确保人工智能系统的可解释性和可信度。
3. 问责制
大多数法律法规在分配责任时,都基于人类是最终决策者这一基本前提。然而,随着基于人工智能的自主设备日益先进和普及,当“决策者”是机器而非人类时,这一前提将越来越不适用。在使用人工智能技术和应用的工业过程中,人工智能的行动、不行动或故障责任通常归咎于商业协议中的相关方,如所有者、设计师/开发者、制造商、操作员等。随着自主系统的发展和智能化程度的提高,人工智能系统能够做出新的决策,智能机器也需为其行为承
超级会员免费看
订阅专栏 解锁全文
653

被折叠的 条评论
为什么被折叠?



