近日,Journal of Medical Internet Research 期刊发表了一篇题为:Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened(人工智能可以生成欺骗性但看起来真实的科学医学论文:潘多拉魔盒已被打开)的论文。
这篇论文显示,ChatGPT等人工智能(AI)语言模型可以生成看起来非常真实的欺诈性科学论文。
论文作者旨在研究人工智能语言模型ChatGPT在生成高质量欺骗性医学论文方面的能力。他们尝试利用OpenAI公司开发的基于GPT-3语言模型的热门人工智能聊天机器人ChatGPT生成神经外科领域的完全虚构的论文。
这项概念验证研究的结果是惊人的——ChatGPT成功生成了一篇欺骗性论文。论文的词汇使用、句子结构和整体构成方面与真正的科学论文非常相似。这篇论文包括标准论文的摘要(abstract)、介绍(introduction)、方法(methods)、结果(results)和讨论(discussion),以及表格和其他数据。令人惊讶的是,在没有任何人类用户特殊训练的情况下,整个论文创作过程只花了一个小时。
“科研之心”的观点:
这篇论文展示了人工智能语言模型ChatGPT在生成欺骗性医学论文方面的惊人能力,也引发了一些重要的伦理和科学问题。