自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 Counterfactual Fairness 2021.3.12

概述本文是机器学习公平性领域的文章,介绍了反事实公平。反事实公平,是指同一个体或者群体的预测结果在现实世界中和反事实世界中应该相似。作者使用利用因果推断的工具制定建模公平性的框架。本文的主要贡献是:利用因果框架来模拟受保护属性和数据之间的关系,描述了因果推断技术如何设计公平算法,并论证了这对于正确地解决公平性的因果关系至关重要。详述一、背景Let A denote the set of protected attributes of an individual,X denote the othe

2021-05-06 18:05:00 2000

原创 因果推理初探总结

本文是对知乎望止洋因果关系推理初探几篇文章的总结梳理。https://zhuanlan.zhihu.com/p/109729340一、 引例深度学习,特别是模仿学习为主的思想,在无人驾驶领域的研究已经经历了数年。最早的一个算法叫DAgger,就是将人类经验驾驶员的驾驶过程记录下来,然后训练模型用于控制车辆。但是在训练中人们发现,并不是特征越多越好,有时候如果引入了多余的特征,反而会误导算法给出的策略。左边的情形A,用于训练网络的输入样本包含了挡风玻璃外的场景图像,也包含了驾驶台的图像(方向盘和

2021-04-20 20:31:32 2809 5

原创 Exacerbating Algorithmic Bias through Fairness Attacks 2.22

概述这篇文章属于机器学习公平性领域,其中文名为《通过公平性攻击加剧算法偏差》。其主要贡献为:提出两种针对公平性的投毒攻击(1)锚定攻击(anchoring attack )通过将中毒点放置在特定目标点附近来使决策边界偏斜(2)影响攻击(influence attack)最大化敏感属性与决策结果之间的协方差详述一、背景机器学习模型可能会受到各种类型的对抗攻击,从而降低机器学习模型的性能。像准确性一样,恶意攻击者也可以将公平性作为攻击目标。二、投毒攻击背景三、基于公平性的投毒攻击1、

2021-03-08 16:41:00 492

原创 FR-Train: A Mutual Information-Based Approach to Fair and Robust Training 20.11.4

d c s d

2021-01-20 21:05:38 294

原创 Counterfactual Generation and Fairness Evaluation Using Adversarially Learned Inference(20.11.13)

概述本文是机器学习领域的文章,[于2020年9月17日提交],其中文名为《使用对抗性学习推理的反事实生成与公平评估》,应用于图像分类。作者提出了一种产生反事实的方法,通过将一个已知的因果图结构合并到一个对抗性学习推理(ALI)的条件变量中。该方法生成反事实,可以在保持其他属性不变的情况下更改指定的属性及其因果后代。作为一个应用,作者应用从CelebA图像中生成的反事实来评估一个预测人脸吸引力的分类器中的公平偏差。...

2021-01-01 15:52:14 553

原创 从GAN到ALI(20.11.13)

概述本文介绍Generative adversarial networks(生成对抗网络)和Adversarially Learned Inference(对抗学习推断器,跟GAN训练过程类似,ALI也是在每次迭代中同时更新生成器和判别器的参数)。一、GAN假设我们现在的数据集是手写体数字的数据集 minst, 生成模型的输入可以是二维高斯模型中一个随机的向量,生成模型的输出是一张伪造的 fake image,同时通过索引获取数据集中的真实手写数字图片 real image,然后将 fake ima

2020-11-13 18:54:24 387

原创 4.zafar 超越不同待遇和不同影响的公平:学习分类而没有不同苛待 20.10.24

这篇文章属于机器学习公平性领域,其英文名为《Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment》。在本文中作者引入了一种新的不公平概念,即完全不同的苛待(disparate mistreatment),这是根据错误分类率定义的。 然后提出了针对决策边界分类器的不同苛待的直观措施,可以轻松地将其作为凸凹约束纳入其公式中。概述本文的

2020-11-04 16:00:01 482 1

原创 两种寻找异常样本的方法 20.9.20

一、箱线图(Boxplot)(一)基本概念(1)最小值(2)第1(上)四分位数Q1位置:(n+1)/4(n是原始数据序列长度)(3)中位数(Q2)(4)第3(下)四分位数Q3位置:(n+1)*3/4(n是原始数据序列长度)(5)最大值(二)实例假设有数据集合num = c(1,2,3,4,5,6,7,8)n=8(1)Q1位置:(8+1)/4=2.25说明上四分位数在第2.25个位置数,实际上这个数是不存在的,假想从第2个数到第3个数之间是均匀分布的。那么第2.25个数就是第二个数

2020-09-20 15:54:42 469

原创 3.Zafar 公平约束:公平分类的机制

3.Zafar 公平约束:公平分类的机制这篇文章属机器学习公平性领域,其英文名为《Fairness Constraints: Mechanisms for Fair Classifification 》。在本文中作者引入了一种新的度量决策边界公平性的方法,能够确保对一个或多个敏感属性的公平性。并推导出两个互补的公式:一个在公平约束下最大化准确性,并帮助确保遵守非歧视政策或法律;另一个是在精确度约束下最大化公平性,并确保满足某些业务需求。概述本文的主要工作有:1、详述一、分类公平性介绍(一)决策

2020-08-24 12:35:48 1156

原创 2.Zafar 学习过程公平的案例:公平决策的特征选择

2.Zafar 学习过程公平的案例:公平决策的特征选择这篇文章是机器学习公平性领域的文章,其英文名为《The Case for Process Fairness in Learning: Feature Selection for Fair Decision Making》。早期关于公平的工作主要集中于在不使用敏感特征(例如性别,种族)的情况下实现较高的决策准确性,而在本文中,作者通过研究人们认为每个特征(敏感或不敏感)不公平的程度,以及删除这些特征的组合将如何影响结果的公平性和准确性,提出了超越当前法律

2020-07-29 10:19:21 1047

原创 《K-NN as an Implementation of Situation Testing for Discrimination Discovery and Prevention》论文总结详述

总览这篇文章属机器学习公平性领域,它的中文题目为《k-NN作为用于歧视发现和预防的情境测试的实现》。作者通过k-NN分类的变体对歧视发现和预防问题进行了建模,该变体实现了情境测试的法律方法。与现有提案相比,其主要的进步在于:提供了更强大的法律基础,克服了针对未分化群体的综合措施的弱点;提出关于谁被歧视以及谁没有被歧视发现的全局描述;提出一种与现有分类模型无关的防止歧视的方法;提出一种接受...

2020-07-28 16:38:42 436

原创 1.Zafar 超越算法决策中的超越分配公平:过程公平学习的特征选择

总览这篇文章属于机器学习公平性领域,其英文名为《Beyond Distributive Fairnessin Algorithmic Decision Making: Feature Selection for Procedurally Fair Learning 》。近年来,在机器学习领域出现了很多与消除不公平性有关的研究方法,但这些工作大多只关注决策结果的公平性,本文将重点放在决策过程的公平...

2020-03-06 18:31:38 1061

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除