负责任的人工智能开发与机器学习最佳实践
一、数据驱动决策与因果分析
在进行预测时,如果出现较高的预测收入,可能是模型存在误差,也可能是捕捉到了如税收策略这样的相关性。我们可以通过提出“如果……会怎样”的问题,借助EconML Python包进行因果分析,从而做出数据驱动的决策。
以房屋定价场景为例,具体操作步骤如下:
1. 从数据集中选取特定房屋。
2. 分析增加车库面积或增加壁炉数量对房屋建议价格的影响。
3. 生成一个房屋表格,按照这些改变后价格涨幅最大的顺序排序,以便将资源集中在影响最大的方面。
此外,还可以利用这种方法制定政策。例如,对于房屋销售,不是简单地告知所有人添加门廊会增加房屋价值,而是通过“如果……会怎样”的问题分析得出:小地块上的老房子拆除现有门廊可能售价更高,而主楼层超过一定平方英尺的新房子添加门廊会卖更多钱。
如果想进行更高级的因果推断,可以使用DoWhy Python库,它是负责任人工智能工具箱的一部分,能帮助我们对所做的假设进行建模并测试。对于不熟悉因果推断的人,ShowWhy可以通过图表展示数据中的关系,帮助提问、揭示假设,探索原因和混杂因素(即对我们认为的原因和最终结果都有影响的变量)。
二、AI公平性
(一)AI系统不公平的原因
AI系统可能会因为以下原因表现出不公平:
1. 训练数据反映了社会中的偏见。
2. 开发和部署过程中做出的决策存在问题。
3. 数据本身存在缺陷(如不能代表所有用户)或系统自身存在漏洞。
AI可能会自动放大训练集中偶尔出现的偏见,还可能引入新的偏见,例如在翻译没有性别代词
超级会员免费看
订阅专栏 解锁全文

6202

被折叠的 条评论
为什么被折叠?



