本文是LLM系列文章,针对《Correcting misinformation on social media with a large language model》的翻译。
摘要
现实世界中的错误信息可能是部分正确的,甚至是事实性的,但具有误导性。它破坏了公众对科学和民主的信任,尤其是在社交媒体上,因为它可以迅速传播。高质量、及时地纠正错误信息,识别并解释其准确性,已被证明可以有效减少虚假信念。尽管人工更正被广泛接受,但它很难及时和可扩展,这是一个令人担忧的问题,因为大型语言模型(LLM)等技术使错误信息更容易产生。LLM还具有多功能,可以加速错误信息的纠正–然而,由于缺乏最新信息、产生虚假内容的趋势以及处理多模式信息的局限性,它们举步维艰。我们提出了MUSE,这是一种LLM,增加了对最新信息的访问和可信度评估。通过检索作为反驳或支持上下文的证据,MUSE通过引用来识别和解释一段内容的准确性——而不是预先假定的错误信息。它还描述图像并进行多模态搜索,以验证和更正多模态内容。事实核查专家评估对社交媒体内容的反应,这些内容不被预设为(非)错误信息,但广泛包括不正确、部分正确和正确的帖子,这些帖子可能具有误导性,也可能不具有误导性。我们提出并评估了错误信息更正质量的13个维度,从识别的准确性和解释的真实性到参考文献的相关性和可信度。研究结果表明,MUSE有能力对社交媒体上潜在的错误信息及时做出高质量的回应——总体而言,MUSE的表现比GPT-4好37%,甚至比普通人的高质量回应好29%。这项工作揭示了LLM在有效打击现实世界错误信息方面的潜力。