AI/ML系统治理机制的批判性视角
随着基于机器学习(ML)和统计推断的人工智能(AI)系统的使用日益广泛,围绕这些技术的炒作也愈发炽热。有人宣称,AI/ML技术将引领“第四次工业革命”,为劳动、医疗、城市生活和消费等领域带来数据驱动的洞察和效率提升。然而,这些系统对社会产生的负面影响也引发了越来越多的批判。
治理机制概述
目前,针对当代AI系统的伦理治理提出了多种机制,主要包括技术解决方案和法律、监管及其他社会机制。技术解决方案旨在减轻AI系统设计中的偏差或不公平性,而社会机制则用于指导这些系统的构建和部署。
通过工具进行治理
许多人提出通过技术手段来解决当代AI系统的不足,即对机器学习过程和实践进行改进,以诊断和减少系统输出中的统计偏差或遗漏。随着大数据分析和AI/ML的普及,科学技术研究领域对数字系统中社会偏差的批判在计算机科学和数据科学领域得到了更多关注。
一些学者强调,技术规范应作为对数字技术及其社会影响进行多学科评估的一部分。计算机科学家开始分析并在某些情况下将公平、问责、透明和可解释性等抽象价值形式化,特别是在机器学习系统的背景下。
为减少技术定义的偏差和不公平性,企业、学术机构和民间社会都开发了相应的技术。这些努力在社会科学领域有历史先例,如定量教育、职业和心理测试。例如,“机器学习中的公平性、问责制和透明度”(FATML)研讨会每年与国际机器学习会议(ICML)同期举行,从2014年持续到2018年,2018年还举办了首届专门的FAT*会议,2019年该会议与美国计算机协会(ACM)会议系列相关联,这表明该领域的关注度迅速上升。
技术工具主要围绕确保公平性和可解释性展开:
超级会员免费看
订阅专栏 解锁全文
574

被折叠的 条评论
为什么被折叠?



