ACL 2023:大语言模型时代的计算语言学
作为计算语言学协会(ACL)2023年会议的主席,某中心Alexa AI高级首席科学家Yang Liu指出,大语言模型(LLMs)已成为本届会议的核心议题。
会议焦点与主题
本届ACL会议首次设立多个大语言模型专题环节,两场主题演讲均围绕该领域展开。图灵奖得主Geoffrey Hinton将探讨多模态LLMs是否具有主观体验的争议性问题,加州大学伯克利分校心理学教授Alison Gopnik则从文化技术视角解析大语言模型。会议还设置了LLM伦理专题和自然语言处理伦理专场,反映出学术界与社会对技术发展的共同关注。
幻觉问题的技术解决方案
后处理验证机制
通过知识检索技术对模型输出进行事实核查:当模型生成"拜登是现任总统"等陈述时,系统自动搜索可信来源,并利用蕴含模型进行一致性验证。当前该方法的错误率仍较高,文本语义匹配仍是NLP领域未完全解决的难题。
数据质量控制
LLMs使用数万亿token进行训练(token包括单词、多词单元或子词单元)。提升模型事实准确性的基础在于确保训练数据的高质量,包括精细的数据筛选和清洗流程。
内部机制修正
通过激活编辑技术调整概率分布:首先识别与真实性高度相关的稀疏注意力头,随后沿真理相关方向进行推理干预(inference intervention)。该方法不修改已训练模型参数,而是通过改变推理策略减少幻觉。另有多种方法通过直接调整模型参数来实现该目标。
显式知识 grounding
采用知识检索组件先行获取相关信息,使LLM的回答基于相关文档进行 grounding,从而降低虚构内容的产生概率。
训练代理的挑战与突破
LLMs通过输入掩码进行训练(随机删除输入句子中的词汇并由模型补全),这种自动掩码机制虽便于误差计算,但难以直接优化事实准确性。研究表明,token预测可作为下游任务的有效代理,在此基础上通过指令微调和任务适配提升性能。但修改基础模型结构和添加训练目标仍存在计算成本高昂的挑战。
人类反馈优化路径
通过带有人类反馈的奖励模型进行持续改进是主流方法。在强化学习过程中,模型根据人类反馈区分低概率选择。若关注事实错误维度,可使模型沿这些方向优化。虽然模型性能持续提升,但95%的准确率在搜索等场景中仍不足——单个错误即可能引发用户信任危机。
技术与社会协同演进
随着LLM事实准确性的逐步提升,用户需转变使用观念:将模型输出视为需要核实的参考信息而非绝对真理。这种转变需要用户教育、企业策略调整和社会伦理共识的协同发展,正如伦理专题讨论所强调的——全社会需共同探索与新技术和谐共处的模式。
本文根据ACL 2023会议技术讨论整理,聚焦大语言模型的技术挑战与解决方案
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

10万+

被折叠的 条评论
为什么被折叠?



