儿童与少数群体的AI特殊监管及可信AI发展之路
一、AI在儿童与少数群体应用中的问题
(一)数据问题
AI 基于预测分析和画像技术在少数群体机会与发展方面存在诸多局限。过去为推动社会福利设施建设(如改善儿童使用的设施)进行了大量统计分析,数据来源于公共福利数据、医疗记录和司法信息等不同数据库。但研究发现,模型输入数据存在广泛差异和不一致性,记录的数据缺乏系统性,验证标准应用也不一致。同时,生物特征数据的收集过程、参与人员、存储方法和技术应用等方面的知识缺失,影响了人们对 AI 的信任。少数群体数据有限的情况也引发了公平性问题,例如面部识别检测软件对儿童和有色人种女性的成功率受到 AI 伦理学家的质疑,有偏差的训练数据集会加剧社会偏见,导致少数群体遭受歧视或处于更不利地位。
(二)聊天机器人问题
聊天机器人作为现实世界 AI 系统的实例,给发育障碍儿童带来了更高风险。它无法识别儿童的残疾状况,不能识别求助信息,也无法为儿童提供充分建议。如 2018 年 BBC 报道的两个心理健康聊天机器人未能捕捉儿童遭受性虐待的报告,其混乱的回应给年轻用户带来了额外挑战。此外,聊天机器人还存在隐私威胁,包括欺骗、篡改数据、数据盗窃和易受网络攻击等。当聊天机器人根据匹配关键词回复而产生偏见时,引发了伦理学家的关注。理想情况下,输入不完全匹配时,它应学习并更新词典。儿童权利倡导者对聊天机器人的数据保留政策和家长同意问题提出质疑,因为部分聊天机器人依赖存储的语音记录学习和回应,历史数据会强化系统性偏见,导致儿童间的歧视。
(三)隐私问题
隐私倡导者日益关注数据隐私,谨慎警告政府大规模监控、执法和检查活动以及其他基于查询的工具。未经同
超级会员免费看
订阅专栏 解锁全文
691

被折叠的 条评论
为什么被折叠?



