文章来源:BiScope: AI-generated Text Detection by Checking Memorization of Preceding Tokens | OpenReview
一、论文概述
(一)研究背景
随着人工智能技术的不断发展,大型语言模型(LLMs)在自然语言处理领域取得了突破性进展,展现出强大的理解和生成能力。然而,LLMs 的广泛应用也引发了一系列潜在风险,例如:
- 学术不诚信: 学生和研究人员可能利用 LLMs 生成论文、实验报告等内容,导致学术成果的真实性和可靠性受到质疑。
- 虚假信息传播: 恶意分子可能利用 LLMs 制造和传播虚假信息,对社会秩序和公众信任造成负面影响。
- 数据集污染: LLMs 生成的文本可能被错误地纳入数据集,影响模型训练的质量和效果。
为了应对这些挑战,迫切需要开发能够有效识别 AI 生成的文本的方法,从而维护学术诚信、防止虚假信息传播,并保证数据集质量。
目前,现有的 AI 生成的文本检测方法主要分为三类:
- 基于其他 LLMs 或 NLP 模型分类: 直接使用其他 LLMs 或 NLP 模型对文本进行分类,判断其是否由 AI 生成。