本文是LLM系列文章,针对《Factuality Challenges in the Era of Large Language Models》的翻译。
@TOC
摘要
基于大型语言模型(LLM)的工具的出现,如OpenAI的ChatGPT、微软的Bing聊天和谷歌的Bard,引起了公众的极大关注。这些非常有用、听起来很自然的工具标志着自然语言生成的重大进步,但它们表现出生成虚假、错误或误导性内容的倾向——通常被称为幻觉。此外,LLM可能被用于恶意应用程序,例如大规模生成听起来虚假但可信的内容和配置文件。这对社会构成了重大挑战,可能会欺骗用户,并不断传播不准确的信息。鉴于这些风险,我们探索了事实核查人员、新闻机构以及更广泛的研究和政策界所需的技术创新、监管改革和人工智能扫盲举措。通过识别风险、迫在眉睫的威胁和一些可行的解决方案,我们试图阐明在生成人工智能时代把握准确性的各个方面。
1 引言
2 风险、威胁和挑战
3 应对威胁
4 事实核查机会
5 结论
任何能够生成新颖内容的工具也有可能生成误导性内容。因此,任何使用LLM撰写新闻文章、学术报告、电子邮件或任何文本的人都必须验证最基本的事实,无论文本看起来多么流畅。鉴于LLM的使用迅速而广泛地增长,社会必须通过适当的监管、教育和合作迅速采取行动。下面,我们为个人、政府和民主社会提出了一个紧急议程。
协调与合作
随着OpenAI的ChatGPT、微软Bing聊天和谷歌Bard等大型语言模型(LLM)工具的兴起,虽然带来了自然语言生成的显著进步,但也引发了虚假信息和误导内容的问题。这些工具可能被用于恶意目的,对社会构成挑战。本文探讨了事实核查、监管改革和人工智能扫盲的必要性,提出协调合作、法规制定和增强人工智能识字的解决方案,以确保GenAI技术的负责任发展。
已下架不支持订阅
2294

被折叠的 条评论
为什么被折叠?



