本文是LLM系列文章,针对《Correcting misinformation on social media with a large language model》的翻译。
摘要
现实世界中的错误信息可能是部分正确的,甚至是事实性的,但具有误导性。它破坏了公众对科学和民主的信任,尤其是在社交媒体上,因为它可以迅速传播。高质量、及时地纠正错误信息,识别并解释其准确性,已被证明可以有效减少虚假信念。尽管人工更正被广泛接受,但它很难及时和可扩展,这是一个令人担忧的问题,因为大型语言模型(LLM)等技术使错误信息更容易产生。LLM还具有多功能,可以加速错误信息的纠正–然而,由于缺乏最新信息、产生虚假内容的趋势以及处理多模式信息的局限性,它们举步维艰。我们提出了MUSE,这是一种LLM,增加了对最新信息的访问和可信度评估。通过检索作为反驳或支持上下文的证据,MUSE通过引用来识别和解释一段内容的准确性——而不是预先假定的错误信息。它还描述图像并进行多模态搜索,以验证和更正多模态内容。事实核查专家评估对社交媒体内容的反应,这些内容不被预设为(非)错误信息,但广泛包括不正确、部分正确和正确的帖子,这些帖子可能具有误导性,也可能不具有误导性。我们提出并评估了错误信息更正质量的13个维度,从识别的准确性和解释的真实性到参考文献的相关性和可信度。研究结果表明,MUSE有能力对社交媒体上潜在的错误信息及时做出高质量的回应——总体而言,MUSE的表现比GPT-4好37%,甚至比普通人的高质量回应好29%。这项工作揭示了LLM在有效打击现实世界错误信息方面的潜力。
引言
方法
评估
讨论
结论
我们提出了MUSE,这是一种非参数
本文介绍了一种名为MUSE的大型语言模型,该模型旨在提高错误信息纠正的效率和质量。MUSE能够结合文本和视觉信息,及时获取最新知识,并通过引用证据来识别和解释社交媒体内容的准确性。实验表明,MUSE在识别不准确信息、生成高质量响应方面优于GPT-4,甚至超过人类专家。MUSE尤其在涉及政治、经济、法律、社会和健康等领域时表现出色,展示了LLM在应对网络错误信息的巨大潜力。
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



