Grokipedia:埃隆·马斯克认为维基百科存在偏见是对的,但他的人工智能替代方案最多也只能如此
某人工智能公司即将推出早期测试版Grokipedia,这是一个旨在与维基百科竞争的新项目。
该产品被描述为对维基百科"政治和意识形态偏见"的回应。其承诺通过使用某聊天机器人生成和验证内容,提供更准确、上下文更丰富的信息。
维基百科的内容由志愿者编写和维护,这些志愿者只能引用其他已发布来源的材料,因为该平台禁止原创研究。这条旨在确保事实可验证的规则,意味着维基百科的覆盖范围不可避免地反映了其所引用的媒体、学术界和其他机构的偏见。
这不仅仅限于政治偏见。例如,研究反复显示编辑人员中存在显著的性别失衡,在英文版本中约80%-90%为男性。由于编辑使用的大部分二手资料历史上也由男性撰写,维基百科往往反映了更狭隘的世界观,成为男性知识的宝库,而非人类知识的平衡记录。
志愿者问题
协作平台上的偏见通常源于参与者的构成而非自上而下的政策。自愿参与引入了社会科学家所谓的自选择偏差:选择贡献的人往往具有相似的动机、价值观,通常还有政治倾向。
就像维基百科依赖这种自愿参与一样,某社交平台的事实核查功能"社区笔记"也是如此。对社区笔记的分析显示,除了该平台自身之外,其最常引用的外部来源实际上是维基百科。笔记作者常用的其他来源主要集中在中立或左倾媒体。他们甚至使用了与维基百科相同的核准来源列表——这正是其对维基百科批评的核心。然而却没有人指出这种偏见。
维基百科至少仍是少数公开承认并记录其局限性的大规模平台之一。中立性被奉为其五项基本原则之一。偏见确实存在,但也存在旨在使这种偏见可见且可纠正的基础设施。
人工智能是否无偏见?
如果维基百科反映了其人类编辑及其来源的偏见,那么人工智能也面临其数据偏见的同样问题。
像某聊天机器人使用的大型语言模型,是在从互联网收集的巨大数据集上训练的,包括社交媒体、书籍、新闻文章和维基百科本身。研究表明,大型语言模型再现了训练数据中现有的性别、政治和种族偏见。
某创始人声称该机器人旨在对抗这种扭曲,但该机器人本身也被指控存在偏见。一项研究向四个领先的大型语言模型各提出了2500个政治问题,结果显示该机器人在政治上比竞争对手更中立,但实际上仍然存在中间偏左的偏见(其他模型更左倾)。
如果背后的模型依赖相同的数据和算法,很难看出人工智能驱动的百科全书如何能够避免重现其归因于维基百科的偏见。
更糟糕的是,大型语言模型可能加剧这个问题。它们以概率方式运行,基于统计模式预测最可能的下一个词或短语,而不是人类之间的深思熟虑。结果是研究人员所谓的共识幻觉:一个听起来权威的答案,隐藏了背后的不确定性或意见多样性。
因此,大型语言模型倾向于同质化政治多样性,偏爱多数观点而非少数观点。这样的系统有可能将集体知识变成平滑但浅薄的叙述。当偏见隐藏在优美的文字之下时,读者甚至可能不再认识到替代视角的存在。
盈利与动机
维基百科和该产品之间更深层次的区别在于它们的目的和可能的商业模式。维基百科由非营利基金会运营,其大多数志愿者主要出于公共利益动机。相比之下,该人工智能公司及其产品是商业企业。
虽然利润动机本身并非不道德,但它们可能扭曲激励。当某社交平台开始出售其蓝色验证标记时,可信度变成了一种商品而非信任标志。如果知识以类似方式货币化,偏见可能会增加,由产生参与和收入的因素塑造。
真正的进步不在于放弃人类协作,而在于改进它。那些认为维基百科存在偏见的人,包括其创始人本人,可以通过鼓励来自不同政治、文化和人口背景的编辑参与——或者亲自加入改进现有文章的努力,做出更大贡献。在日益被错误信息塑造的时代,透明度、多样性和公开辩论仍然是我们接近真相的最佳工具。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
1312

被折叠的 条评论
为什么被折叠?



