大语言模型时代计算语言学的挑战与突破

ACL 2023:大语言模型时代的计算语言学

作为计算语言学协会(ACL)2023年会议的主席,某中心Alexa AI高级首席科学家Yang Liu指出,大语言模型(LLMs)已成为本届会议的核心议题。

会议焦点与主题

本届ACL会议首次设立多个大语言模型专题环节,两场主题演讲均围绕该领域展开。图灵奖得主Geoffrey Hinton将探讨多模态LLMs是否具有主观体验的争议性问题,加州大学伯克利分校心理学教授Alison Gopnik则从文化技术视角解析大语言模型。会议还设置了LLM伦理专题和自然语言处理伦理专场,反映出学术界与社会对技术发展的共同关注。

幻觉问题的技术解决方案

后处理验证机制

通过知识检索技术对模型输出进行事实核查:当模型生成"拜登是现任总统"等陈述时,系统自动搜索可信来源,并利用蕴含模型进行一致性验证。当前该方法的错误率仍较高,文本语义匹配仍是NLP领域未完全解决的难题。

数据质量控制

LLMs使用数万亿token进行训练(token包括单词、多词单元或子词单元)。提升模型事实准确性的基础在于确保训练数据的高质量,包括精细的数据筛选和清洗流程。

内部机制修正

通过激活编辑技术调整概率分布:首先识别与真实性高度相关的稀疏注意力头,随后沿真理相关方向进行推理干预(inference intervention)。该方法不修改已训练模型参数,而是通过改变推理策略减少幻觉。另有多种方法通过直接调整模型参数来实现该目标。

显式知识 grounding

采用知识检索组件先行获取相关信息,使LLM的回答基于相关文档进行 grounding,从而降低虚构内容的产生概率。

训练代理的挑战与突破

LLMs通过输入掩码进行训练(随机删除输入句子中的词汇并由模型补全),这种自动掩码机制虽便于误差计算,但难以直接优化事实准确性。研究表明,token预测可作为下游任务的有效代理,在此基础上通过指令微调和任务适配提升性能。但修改基础模型结构和添加训练目标仍存在计算成本高昂的挑战。

人类反馈优化路径

通过带有人类反馈的奖励模型进行持续改进是主流方法。在强化学习过程中,模型根据人类反馈区分低概率选择。若关注事实错误维度,可使模型沿这些方向优化。虽然模型性能持续提升,但95%的准确率在搜索等场景中仍不足——单个错误即可能引发用户信任危机。

技术与社会协同演进

随着LLM事实准确性的逐步提升,用户需转变使用观念:将模型输出视为需要核实的参考信息而非绝对真理。这种转变需要用户教育、企业策略调整和社会伦理共识的协同发展,正如伦理专题讨论所强调的——全社会需共同探索与新技术和谐共处的模式。

本文根据ACL 2023会议技术讨论整理,聚焦大语言模型的技术挑战与解决方案
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值