社交媒体平台中以人类为中心的人工智能系统的透明度问题
1. 推荐系统与极端化倾向
在社交媒体平台上,推荐系统基于用户偏好推送内容,虽然用户对某些特定类型内容的偏好可能较小,但这些偏好可能与推荐系统的渐进式学习相互作用。如果用户的偏见长期存在,可能会持续影响推荐系统优化用户模型的方式,使模型倾向于推送包含更多道德情感表达、提及政治异见群体、仇恨言论和虚假信息的内容。这就引发了一个担忧:推荐系统可能会引导用户走向极端立场。
不过,这只是一个值得关注的问题,但已足以促使我们要求相关公司提供更多关于推荐系统影响的信息。虽然社交媒体推荐系统在为用户提供个性化内容方面是以人类为中心的,但长期来看,它们可能会将用户推向极端立场,这与以人类为中心的初衷相悖。
2. 内容分类器的作用与问题
2.1 内容分类器的用途
内容分类器在社交媒体平台中有多种用途,其中一个主要用途是内容审核,即识别有害内容。有害内容种类繁多,不同公司有自己的政策和定义,本文主要关注“仇恨言论”这一广泛类别。一个践行以人类为中心价值观的平台,应避免仇恨言论的传播。
2.2 内容分类器的学习方式
内容分类器本质上是一种“监督式”学习系统,它通过大量各类内容的示例进行学习,目标是找出这些示例中的共性,并将其应用于从未见过的新内容。例如,仇恨言论分类器通过大量应被归类为“仇恨言论”和“非仇恨言论”的文本示例进行训练。分类器的学习完全依赖于所提供的训练示例,因此训练集的创建至关重要。
2.3 学习机制的问题
目前,社交媒体公司在训练有害内容分类器时缺乏透明度,公众监督不足。虽然有些公司偶尔会发布某些有
AI透明度与社交媒体影响
超级会员免费看
订阅专栏 解锁全文
918

被折叠的 条评论
为什么被折叠?



