自大模型落地应用以来,版权问题逐渐凸显。Google DeepMind 的 Nicholas Carlini 与 Gary Marcus 等学者提出一个广受关注的重要问题,即大语言模型(LLM)到底能“记住”多少训练中的输入内容。而最近的实证研究表明,大语言模型在某些情况下的确可以重现、或者生成只包含细小差别的训练集内初始文本。
2023 年 12 月 27 日,《纽约时报》向曼哈顿联邦法院提起诉讼,强调 OpenAI 曾经大量照搬其原始报道(下图中的红字部分),诉讼中的证据显示,OpenAI GPT-4 涉嫌直接抄袭《纽约时报》原文。
这种近乎原样照搬的输出称为“抄袭输出”,这是因为如果同样的情况发生在人类身上,那其行为就属于典型的抄袭行为。
抄袭输出的存在本身引出了一系列重要问题,包括:
- 技术问题(该采取哪些措施来抑制此类输出)
- 社会学问题(新闻业会因此受到哪些影响)
- 法律问题(这些输出是否涉及版权侵犯)以及现实问题(当最终用户使用大模型生成结果时,是否需要担心侵犯版权)
其实,上面的问题早在大模型出现之前就存在了,只是大模型的出现充分将这些问题暴露出来,既然存在问题,就应该相对应的解决办法,不论是技术手段还是非技术手段,这既是充满挑战的,也是充满机遇的。
在《纽约时报》诉