你的照片,也许被用来训练人工智能了!

IBM和英伟达等人脸识别项目使用Flickr等平台上的照片训练AI,引发隐私和监控担忧。韦斯特等人的照片在不知情下被用于训练,推动了对数据收集和使用伦理的关注。研究人员正审视数据集的获取方式,呼吁加强隐私保护和知情同意。随着面部识别技术的发展,相关法规尚未跟上步伐,公众对数据使用的知情权和选择权成为讨论焦点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

你的照片,也许被用来训练人工智能了!
韦斯特于2013年拍摄的这张照片被收录在IBM的人像数据集(Diversity in Faces)中这张照片于2013年被上传到照片分享网站Flickr上时,对于面部识别系统来说有着独特的意义。照片里,人脸出现在了画面的不同位置。这样的照片能够帮助训练人工智能来识别照片和视频中的人脸。
在这里插入图片描述
IBM开发了一个名为“人脸多样性”的新项目,并为其准备了上百万张图片,这张其乐融融的照片就是其中之一,该项目旨在提升人脸识别的公平性和准确性。

多年来,研究人员们通过互联网收集并注释了各类物体的照片,以此来训练电脑,让其可以更好地了解它们周围的世界。通常,他们通过谷歌图片搜索、公共Instagram帐户和一些其他的途径(有些合法,有些可能不合法)获取数量巨大的图片。

得到的数据集通常被用于学术研究,比如训练或测试人脸识别算法。但随着微软、亚马逊、脸书和谷歌等公司押宝人工智能,人脸识别正走出实验室,进入大型企业的视野中。

随着消费者意识到他们在互联网上留下的数据能够产生的巨大威力,人脸识别数据集正在加剧人们对隐私和监控的担心。因此,一些研究人员正在重新审视这种野蛮收集他人照片的行径。在充满分享精神的互联网中,使用他人照片本应征求别人同意。

照片从哪里来?

由于深度学习的普及,近年来机器学习研究蒸蒸日上,人脸识别技术也得到了极大的改善。在一个典型的用例中,照片、视频或实时流媒体中的人脸会被扫描、分析,接着,它们的特征会被拿来与数据库中注释过的人脸进行比较。

这项技术正被用于打击人口贩运和机场快速安检,同时它也被用于监视音乐会、体育赛事。

然而,面部识别的准确性仍是一个问题。

研究人员开始担心人工智能系统中存在的歧视和偏见。该技术在正确识别有色人种和女性等方面还存在着重大缺陷。造成这一问题的原因之一,是数据集里男性相对于女性、白人相对有色人种的悬殊比例。

对机器训练来说,数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值