本文是LLM系列文章,针对《Factuality Challenges in the Era of Large Language Models》的翻译。
@TOC
摘要
基于大型语言模型(LLM)的工具的出现,如OpenAI的ChatGPT、微软的Bing聊天和谷歌的Bard,引起了公众的极大关注。这些非常有用、听起来很自然的工具标志着自然语言生成的重大进步,但它们表现出生成虚假、错误或误导性内容的倾向——通常被称为幻觉。此外,LLM可能被用于恶意应用程序,例如大规模生成听起来虚假但可信的内容和配置文件。这对社会构成了重大挑战,可能会欺骗用户,并不断传播不准确的信息。鉴于这些风险,我们探索了事实核查人员、新闻机构以及更广泛的研究和政策界所需的技术创新、监管改革和人工智能扫盲举措。通过识别风险、迫在眉睫的威胁和一些可行的解决方案,我们试图阐明在生成人工智能时代把握准确性的各个方面。
1 引言
2 风险、威胁和挑战
3 应对威胁
4 事实核查机会
5 结论
任何能够生成新颖内容的工具也有可能生成误导性内容。因此,任何使用LLM撰写新闻文章、学术报告、电子邮件或任何文