大语言模型在自然语言处理领域已取得了令人瞩目的成果,它们能够生成既流畅又富有创意的文本。然而,这些模型的运作原理并非基于固定的文本检索,而是源于神经网络的参数化预测。这种机制带来的挑战是,一旦模型输出出现错误,我们往往难以迅速准确地找到问题的根源,并对这些知识进行定向更新。
正因如此,大语言模型在某种程度上展现出不可预测性。其生成的内容可能与我们的预期有所偏差,甚至可能产生幻觉、违背指令或引发内容安全隐患。这些问题不仅会降低模型的性能和可信度,还可能对用户和社会造成潜在的负面影响。因此,实现大语言模型的可控生成,确保其在实际应用中能够发挥应有的价值,已成为AI原生应用开发中亟待解决的重要问题。
大语言模型的不可控性主要体现在幻觉问题、指令遵循问题和内容安全问题这3个主要方面。
1 幻觉问题
大语言模型幻觉是指大语言模型在生成文本时,产生一些与输入内容不一致或不符合事实的信息,例如虚假的数据,错误的事实,无中生有的细节等。幻觉的产生可能是由于大语言模型在训练数据中记忆了错误的知识,知识匮乏,或者生成内容的过程中受到了不确定性影响而编造的。
例如,下面这个例子,大语言模型在回答问题时引入错误的事实、创造了不存在的人物或地点,如永动机的存在、13世纪的哥特式建筑设计师、意大利的斯托拉达·斯泰尔许等。
世界上第一台永动机是哪一年造出来的?
输出结果:
世界上第一台永动机是在1895年制造的。
该永动机的设想源于13世纪,哥特式建筑设计师韦拉尔·德·奥努克尔提出。1575年,意大利的斯托拉达·斯泰尔许设计了一个永动机:先在上面水槽里面装满水,从上冲下来的时候转动另一个水轮,水轮可带动一块磨刀石工作。同时,另外一组齿轮则带动螺旋吸水器,把水提升到上面的水槽里。源源不断地补充水槽中的水,整个装置就会不停地转动下去。
这些幻觉问题可能导致输出误导性信息,在新闻、医疗、法律等敏感或重要的领域,这种问题可能会影响真实人物或组织的声誉,传播不实或有害的信息,引起社会或政
大语言模型的三大挑战及解决方案

最低0.47元/天 解锁文章
1916

被折叠的 条评论
为什么被折叠?



