20、机器学习与人工智能伦理:挑战与应对

机器学习与人工智能伦理:挑战与应对

数据偏差及其影响

偏差指的是与预期结果的偏离,有偏差的数据会导致错误的决策,而且偏差无处不在,数据本身也可能存在偏差。为了降低有偏差数据的影响,我们需要有所准备。首先要了解可能潜入数据并影响分析和决策的各种偏差类型,然后制定正式且有记录的程序,以实现最佳的数据治理。

人类偏差也是一个重要问题。只要人类参与决策,偏差就会一直存在。微软著名的人工智能聊天机器人Tay与其他推特用户互动并从中学习。但推特上的恶意用户将对话从积极互动引向与他们及喜剧演员的互动,几小时内,Tay就发布了带有性别歧视、种族歧视和暗示性的推文,最终只存活了24小时。这个实验引发了一个问题:如果人工智能从人类行为中学习,它真的能安全吗?

智能偏差同样不可忽视。机器学习模型的优劣取决于训练数据,这往往会导致某种形式的偏差。具有人类思维的人工智能系统已经出现了偏差放大的情况,引发了数据科学家对人工智能技术伦理使用的讨论。早期基于人口数据构建的思维系统在性别、种族、社会地位等问题上表现出明显的偏差。

算法偏差在刑事司法系统中有一个臭名昭著的例子。威斯康星州的一个法庭案件剖析了“矫正罪犯管理替代制裁分析”(COMPAS)算法。由于输入犯罪预测模型的关于非裔美国人犯罪的数据比例失调,导致该模型输出对黑人社区人群的偏差结果。此外,评估家庭保险风险的算法也会基于理赔数据对特定地区的人产生偏差。数据标准化是关键,如果数据没有针对这些敏感性进行标准化处理,且系统没有得到适当验证,人类就有可能使机器学习模型对少数群体产生偏差,导致许多群体的代表性不足。

即使移除偏差,也不能保证模型就没有偏差了。即使创建出一个绝对无偏差的模型,也不能保证人工智能不会学习到我们

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值