Google AI 博客: 使用MinDiff框架缓解ML模型中的不公平偏见

负责任的机器学习(ML)的研究与开发在帮助解决各种社会挑战方面可以发挥关键作用。在Google,我们的研究反映了我们的AI原则,从帮助保护患者免受药物错误和改进洪水预测模型的影响,到提出解决产品中不公平偏见的方法(例如Google Translate),并为其他研究人员提供同样的资源。

负责任地应用ML的一个广泛类别是分类任务-将数据分类为标记类别的系统。Google会在我们的所有产品中使用此类模型来实施政策,范围从检测仇恨言论到适合年龄的内容过滤。尽管这些分类器起着至关重要的作用,但它们的构建方式必须尽量减少对用户的不公平偏见,这一点也很重要。

今天,我们宣布发布MinDiff,这是TF模型修正库中提供的一种新的正则化技术,可以有效地缓解训练ML模型时的不公平偏见。在本文中,我们讨论了这项技术背后的研究,并说明了该技术如何解决 将其纳入Google产品时所观察到的实际限制和要求。

分类器中的不公平
偏见为了说明如何使用MinDiff,请考虑一个产品策略分类器的示例,该产品的任务是识别和删除可能有毒的文本注释。一个挑战是确保分类器不会不公平地偏向来自特定用户组的提交,这可能导致从这些组中错误地删除内容。

学术界为机器学习公平奠定了坚实的理论基础,就不公平偏见的含义以及评估公平的不同框架之间的紧张关系提供了广泛的观点。机会均等是最常见的指标之一,在我们的示例中,这意味着衡量并寻求最大程度地降低群体之间的误报率(FPR)。在上面的示例中,这意味着分类器不应更可能错误地从一组而不是另一组中删除安全评论。同样,分类器的假阴性率在组之间应该相等。也就是说,分类器不应错过针对一组的有害评论,而不要错过针对另一组的有害评论。

当最终目标是改善产品时,重要的是能够将缓解不公平偏见的规模扩

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值