深度学习与伦理:挑战与应对
1. 深度学习模型解释工具LIME
深度学习网络输出函数复杂,在高维空间中,若无法访问模型,很难知晓决策原因以及如何修改输入来改变决策。LIME(Local Interpretable Model-agnostic Explanations)可以帮助解决这一问题,其工作流程如下:
1. 探测附近点 :以理解某点处 $Pr(y = 1|x)$ 较低的原因为例,LIME 在该点附近的点探测网络,判断这些点的 $Pr(y = 1|x) < 0.5$(青色点) 还是 $Pr(y = 1|x) ≥0.5$(灰色点),并根据这些点与关注点的接近程度进行加权(圆圈大小表示权重)。
2. 训练简单模型 :使用加权后的点训练一个更简单的模型,如逻辑回归(线性函数经过 sigmoid 函数)。
3. 近似原函数 :在关注点附近,这个近似模型与原函数接近。通过近似模型的参数,我们可以推断出,如果增加 $x_1$ 或减少 $x_2$,$Pr(y = 1|x)$ 将增加,输出类别也会改变。
graph LR
A[理解Pr(y = 1|x)低的原因] --> B[探测附近点]
B --> C[训练简单模型]
C --> D[近似原函数]
D --> E[推断输入变化对输出的影响]
2. AI系统的故意滥用
2.1 人脸识别与分析
人脸识别技术存在较高的滥用风险: <
超级会员免费看
订阅专栏 解锁全文
255

被折叠的 条评论
为什么被折叠?



